1小時可以設計1000組包裝的 AI 「Package Design AI」來了,不僅可以設計,還可以通過大數據評價分析包裝設計在市場受歡迎程度。 這個其實是很早就有的一個AI工具,從2022年10月起,日本株式會社PLUG就開始提供「Package Design AI」服務。這是一個只需要使用者上傳圖像素材,人工智能就可以自動在一個小時內,完成1000組商品的包裝設計的工具。
通過它設計的包裝,甚至已經幫助客戶實現了 2 倍多的業績增長!不過這套 AI 的重點在于「 協助設計師將現有的設計元素修改進步為更吸引人的呈現方式 」,將會大大提高設計的工作效率~唯一有點兒可惜的就是這個是企業級應用,個人好像還不能使用。
近日,快手發布了國內首個效果對標 Sora 的視頻生成大模型「可靈」,并已在其旗下的快影App中開放邀測體驗。
可靈大模型是由快手 AI 團隊自研,采用了類似 Sora 的技術路線,并結合了多項自研創新技術。該模型具備強大的概念組合能力和想象力,能夠生成具有大幅度合理運動的視頻,并模擬物理世界特性。其生成的視頻分辨率高達1080p,時長最高可達2分鐘(幀率30fps),且支持自由的寬高比。
可靈大模型不僅限于文生視頻功能,還將推出其他應用,如“AI舞王”和“AI唱跳”,這些應用可以驅動表情和肢體動作,僅需一張照片就能生成相應的視頻。
目前,可靈大模型已在快影App中正式開啟邀測,支持720p視頻生成,豎版視頻生成能力也即將開放,大家可以來試一試,看看生產的效果怎么樣!
官網地址:https://kling.kuaishou.com/
Midjourney的新功能“角色參照”(Character Reference)終于正式上線了,它為用戶提供了在生成圖像時保持角色特征一致性的可能。這個功能特別適合那些需要在多個圖像中維持相同角色外觀的創作者,例如在制作漫畫、動畫或游戲角色設計時。
以下是該功能的詳細介紹和使用方法:
適用型號: - Midjourney V6 - Niji6
功能狀態: - Midjourney V6目前處于alpha測試階段,這意味著功能可能還會有調整和優化。 - V6的beta版即將推出,屆時可能會有更多的用戶可以體驗到這一功能。
使用方法: 1. 在輸入提示詞(prompt)后,通過添加--cref URL來指定一個參照圖像鏈接,以此保持生成圖像中的角色特征。 2. 如果需要混合多個圖像的角色特征,可以使用--cref URL1 URL2的格式。 3. 通過--cw [強度值]來調整參照的強度,默認值為100。強度較高時,生成的圖像會更詳細地參照臉部、發型和著裝;而強度較低(如0)時,主要參照臉部特征,適合用于變換服裝或發型的場景。
效果提示: - 使用Midjourney創作的圖像作為參照圖像通常會得到更好的效果,而使用真人照片可能會導致生成的圖像出現扭曲。 - 功能的參照精確度有限,生成的圖像會具有類似但不完全一致的角色特征。
效果對比: - 與Midjourney V6相比,Niji6在使用“角色參照”功能時可能會有更好的效果。
注意事項: - 由于功能目前處于alpha測試階段,可能會出現不穩定或效果不如預期的情況。
今天發現了一個聲音克隆的好東西,我剛剛挖到的Fish Speech這個工具,不僅生成速度快到飛起,而且克隆出的聲音也很真實,支持文字轉語音功能,非常的好用!
Fish Speech 是一款由fishaudio開發的全新文本轉語音(TTS)工具,具有強大的語音克隆能力。用戶只需提供一段參考語音,系統便能迅速進行語音克隆,無需繁瑣的訓練過程。
該工具支持中文、英語和日語等多種語言,并且在語音處理上的能力接近人類水平。 Fish Speech采用了先進的AI技術,包括VQ-GAN、Llama和VITS等,能夠將文本轉換成逼真的語音。它還采用了Flash-Attn算法,以提高處理大規模數據的效率和穩定性。這些技術使得Fish Speech不僅在語音合成方面表現出色,還在語音克隆方面具有顯著的優勢。
Fish Speech的語音克隆功能特別適合內容創作者使用,他們可以利用這一工具快速生成各種聲音效果,用于視頻配音、播客制作等場景。
試玩地址:https://fish.audio/zh-CN/
近期,阿里巴巴智能計算研究所提出了一種新的生成式框架 EMO,是一種富有表現力的音頻驅動的肖像視頻生成框架,用戶只需提供一張照片和一段音頻文件,EMO就能生成會說話唱歌的AI視頻,實現無縫對接的動態小視頻,最長時間可達1分30秒左右。這項技術的應用場景非常廣泛,從電視劇角色的語音合成到音樂視頻中的虛擬表演者,都有可能被AI技術所取代。
EMO框架使用Audio2Video擴散模型,通過三個階段的技術處理,包括幀編碼、音頻編碼和去噪操作,以及參考注意力和音頻注意力機制,來生成富有表現力的人像視頻。
目前,EMO 框架上線到 GitHub 中,相關論文也在 arxiv 上公開。
GitHub:https://github.com/HumanAIGC/EMO
論文:https://arxiv.org/abs/2402.17485
阿里巴巴最近推出了一項名為Animate Anyone的創新視頻生成技術,只需一張圖片即可生成平滑穩定的視頻。這項技術對短視頻、電商和動漫行業都有一定的影響!
Animate Anyone 是由阿里巴巴智能計算研究院開發,你只需提供一個靜態的角色圖像和一些預設的動作(或姿勢序列)然后會生成該角色的動畫視頻。同時保持圖像中角色的外觀和特征的一致性。
理論上“動畫任何人”... 不僅適用于人類角色,還可以用于動漫/卡通角色、類人角色等,具有廣泛的應用范圍。
Animate Anyone 創新之處在于它的通用性和高度的自定義能力。用戶可以使用任何圖像和任何動作序列來創建獨特的、定制化的視頻內容。
對于任何需要快速、高效創建動畫內容的人來說都是一個非常有價值的工具。通過這種技術,可以在不需要復雜動畫技能或昂貴軟件的情況下,創造出引人入勝的動畫視頻。
怎么樣?有驚艷到你嗎?
分享一下在Discord平臺上非常出色的7款AI繪畫插件,這些插件可以幫助大家以更多樣的方式實現AI繪畫。希望這些插件能夠對大家有所幫助!這7款插件多數都能在服務器直接搜索到,其他的需要邀請鏈接。
1、ChatGPT,是的沒錯,ChatGPT也上線 Discord 平臺了,這進一步便利了我們用ChatGPT生成 Midjourney 所需關鍵詞。
2、InsightFace,換臉神器,這款是人物頭像定制必備的 Midjourney 插件
3、Midjourney Bot 是 Discord 核心插件,30刀每個月,功能就不用強調了吧~
4、niji journey Bot,二次元出圖必備神器,如果你要出動漫風格的圖片,一定要記得用上
5、Tracejourney Bot,Midjourney 商用必備插件:這款插件最強大的地方在于,它可以把 Midjourney 插畫轉換成矢量文件去編輯
6、StableDreamer,是 Stable diffusion上線到discord上的工具,同樣強大的 AI繪圖神器
7、Pika,AI圖片轉動態神器,Pika 擁有可以輕易變圖片為動畫的功能,也是大家最近非常青睞的AI工具