
Story Flicks基于AI大模型的故事短視頻生成工具。
聲明:該文章由作者(樂(lè)播傳媒)發(fā)表,轉(zhuǎn)載此文章須經(jīng)作者同意并請(qǐng)附上出處(0XUCN)及本頁(yè)鏈接。。
Story Flicks是一款開(kāi)源的基于ai大模型打造的故事短視頻生成工具。它把先進(jìn)的語(yǔ)言模型和圖像生成技術(shù)融合起來(lái),依據(jù)用戶輸入的故事主題,能夠迅速生成包含AI生成圖像、故事內(nèi)容以及音頻的視頻。它主要提供一鍵生成高清短視頻的服務(wù),很適合那些想要快速制作視覺(jué)內(nèi)容的創(chuàng)作者、教育者以及市場(chǎng)推廣人員。
功能特征:
智能生成:用戶僅輸入故事主題或者關(guān)鍵字,系統(tǒng)就能自動(dòng)生成對(duì)應(yīng)的短視頻,并且短時(shí)間內(nèi)能給出多種創(chuàng)意成果。
多語(yǔ)言支持:Story Flicks能夠支持多種語(yǔ)言,用戶能按照自身需求挑選合適的語(yǔ)言來(lái)生成內(nèi)容,這提升了使用時(shí)的便利性與靈活性。
圖像與音頻結(jié)合:Story Flicks除了能生成文本內(nèi)容和故事情節(jié),還能給視頻添加由AI生成的圖像以及背景音效,整體上增強(qiáng)了視頻的觀賞性。
多模態(tài)生成:Story Flicks通過(guò)大語(yǔ)言模型(LLM)進(jìn)行智能解析,能夠綜合構(gòu)建敘事框架,同步融合視覺(jué)、聽(tīng)覺(jué)和文本元素。也就是說(shuō)它不但能生成文本故事,還能自動(dòng)創(chuàng)造出與故事相匹配的AI圖像、動(dòng)態(tài)語(yǔ)音旁白和智能字幕。
AI圖像生成:Story Flicks運(yùn)用圖像生成技術(shù),給故事里的場(chǎng)景和角色營(yíng)造出生動(dòng)的視覺(jué)效果,讓生成的視頻內(nèi)容在視覺(jué)上有很強(qiáng)的吸引力。
一體化音頻制作:其中包含動(dòng)態(tài)語(yǔ)音旁白,這就意味著用戶不需要額外去錄制或者尋找音頻素材,系統(tǒng)會(huì)自動(dòng)根據(jù)故事內(nèi)容生成語(yǔ)音。
智能字幕:能夠自動(dòng)編排字幕,這既便于聽(tīng)障用戶理解視頻內(nèi)容,也提高了視頻的可訪問(wèn)性。
技術(shù)棧:后端運(yùn)用Python和FastAPI,前端采用React、Ant Design和Vite,以此確保系統(tǒng)高效穩(wěn)定運(yùn)行,為用戶提供良好的開(kāi)發(fā)體驗(yàn)。
應(yīng)用場(chǎng)景:
創(chuàng)意內(nèi)容制作:適合短視頻博主、自媒體網(wǎng)絡(luò)紅人還有營(yíng)銷人員,通過(guò)快速制作豐富的視覺(jué)故事來(lái)提升效率。
教育與培訓(xùn):在教育行業(yè)中大有用處,能夠?yàn)閷W(xué)員提供直觀的學(xué)習(xí)素材,例如教育性的短視頻內(nèi)容。
娛樂(lè)與廣告:娛樂(lè)行業(yè)的從業(yè)者以及廣告制作人員可以借助它迅速創(chuàng)作宣傳視頻。
個(gè)人用途:普通個(gè)人用戶也能夠輕松制作紀(jì)念視頻、進(jìn)行故事分享等。
Story Flicks的使用方法:
1. 下載本項(xiàng)目:
git?clone?https://github.com/alecm20/story-flicks.git
2.?設(shè)置模型信息
#?先切換到項(xiàng)目的?backend?目錄下cd?backendcp?.env.example?.envtext_provider="openai"????#?文本生成模型的提供商,目前支持?openai和?aliyun、deepseek、ollama、siliconflow,阿里云文檔:https://www.aliyun.com/product/bailianimage_provider="aliyun"???#?圖片生成模型的提供商,目前支持?openai和?aliyun、siliconflowopenai_base_url="https://api.openai.com/v1"?#?openai?的?baseUrlaliyun_base_url="https://dashscope.aliyuncs.com/compatible-mode/v1"?#?阿里云的?baseUrldeepseek_base_url="https://api.deepseek.com/v1"?#?deepseek?的?baseUrlollama_base_url="http://localhost:11434/v1"?#?ollama?的?baseUrlsiliconflow_base_url="https://api.siliconflow.cn/v1"?#?siliconflow?的?baseUrlopenai_api_key=?#?openai?的?api?key,可以只填一個(gè)aliyun_api_key=?#?阿里云百煉的?api?key,可以只填一個(gè)deepseek_api_key=?#?deepseek?的?api?key,目前該?api_key?只支持文本生成ollama_api_key=?#?如果需要使用的話,請(qǐng)?zhí)顚憃llama,目前該?api_key?只支持文本生成,并且不能用參數(shù)量太小的模型,推薦qwen2.5:14b?或者更大的模型。siliconflow_api_key=?#?siliconflow?的文本模型目前只支持兼容?OpenAI?格式的大模型,如:Qwen/Qwen2.5-7B-Instruct。圖像模型只測(cè)試了:black-forest-labs/FLUX.1-devtext_llm_model=gpt-4o?#?如果?text_provider?設(shè)置為?openai,這里只能填?OpenAI?的模型,如:gpt-4o。如果設(shè)置了?aliyun,可以填阿里云的大模型,如:qwen-plus?或者?qwen-max。ollama?的模型不能使用體積太小的模型,否則無(wú)法輸出正確的?json,可以使用如:qwen2.5:14b?或更大的模型。image_llm_model=flux-dev?#?如果?image_provider?設(shè)置為?openai,這里只能填?OpenAI?的模型,如:dall-e-3。如果設(shè)置了?aliyun,可以填阿里云的大模型,阿里云推薦使用:flux-dev,目前可以免費(fèi)試用,具體參考:https://help.aliyun.com/zh/model-studio/getting-started/models#a1a9f05a675m4。
3. 通過(guò)docker啟動(dòng)項(xiàng)目
在項(xiàng)目根目錄下,執(zhí)行:
docker-compose?up?--build
4. 開(kāi)始使用
輸入故事主題:在生成工具的界面,選擇文本生成模型提供商、圖片生成模型提供商、文本模型、圖片生成模型、視頻使用的語(yǔ)言、聲音、故事主題以及故事段落。
視頻生成:點(diǎn)擊生成按鈕后,系統(tǒng)會(huì)基于AI技術(shù)展開(kāi)處理,幾秒鐘內(nèi)就能夠生成最終的視頻。
[超站]友情鏈接:
四季很好,只要有你,文娛排行榜:https://www.yaopaiming.com/
關(guān)注數(shù)據(jù)與安全,洞悉企業(yè)級(jí)服務(wù)市場(chǎng):https://www.ijiandao.com/
- 1 中美完全可以相互成就、共同繁榮 7904034
- 2 加沙已變“死城” 7809358
- 3 暴雨中臺(tái)下只剩1名觀眾 演員仍開(kāi)演 7714379
- 4 近距離感受“大國(guó)重器” 7618832
- 5 美國(guó)大豆中國(guó)訂單量仍為零 7519722
- 6 試管嬰兒患腎病 父母要求醫(yī)院擔(dān)全責(zé) 7424149
- 7 女子婚后起訴父母返還18萬(wàn)彩禮 7329461
- 8 委內(nèi)瑞拉:美國(guó)“不宣而戰(zhàn)” 7234348
- 9 金價(jià)飆升 有非法淘金人井下生活兩年 7135491
- 10 網(wǎng)紅“戶晨風(fēng)”多平臺(tái)賬號(hào)被封 7045475