隨著AI生成內容的廣泛應用,大家是不是越來越難以區分AI和人類創作的內容?
5月8日,OpenAI在官網宣布,將推出面向其文生圖模型DALL·E 3 的內容識別器,以及一個媒體管理器,這個識別器可以幫助開發人員快速識別內容的真假。
而且,這次ChatGPT的內容也有所改進:OpenAI最近在ChatGPT生成的內容中加上了原始網站鏈接,以保護知識產權并增加內容的可信度。
以下是案例:達拉斯最適合午夜約會的5家餐廳。ChatGPT會在回答的每一條內容上加上餐廳的官網地址。
更多詳細的介紹戳這里:原文地址
好消息啊!4月27日,在2024中關村論壇-未來人工智能先鋒論壇上,清華大學聯合生數科技正式發布了,中國首個長時間、高一致性、高動態性視頻大模型——Vidu。
大家期待已久的國產大模型,這不就來了嗎?
Vidu采用了原創的Diffusion與Transformer融合架構U-ViT,能夠支持文本生成長達16秒、分辨率高達1080P的高清視頻內容。
Vidu不僅能夠模擬真實物理世界,還具備豐富想象力,具備多鏡頭生成、時空一致性高等技術特點。這也是繼Sora發布之后,全球率先取得重大突破的視頻大模型,性能全面對標國際頂尖水平,并加速功能迭代中。
現在已經開放試用了,還不趕緊來試一試?
試用地址:https://www.shengshu-ai.com/home?ref=maginative.com
4月25日晚,OpenAI聯合創始人兼首席執行官Sam Altman,在斯坦福大學的英偉達(NVIDIA)禮堂進行了公開演講,超過1000名學生排隊參加此次活動。
Altman說:“GPT-5將會比GPT-4更強大,GPT-6將會比GPT-5更智能,OpenAI的終極目標始終都沒有變就是實現——AGI(通用人工智能)。”
以下是本次演講的一些關鍵信息總結: 1. Sam Altman的演講:作為OpenAI的聯合創始人兼首席執行官,Sam Altman在斯坦福大學的NVIDIA禮堂進行了演講,吸引了超過1000名學生。 2. AI的未來發展:Altman認為,人類尚未達到AI的極限,并且OpenAI的目標是實現通用人工智能(AGI)。他提到GPT-5將比GPT-4更強大,而GPT-6將比GPT-5更智能。 3. 開源與閉源:Altman認為,為了實現AGI,需要大量的資金投入,因此開源可能不是最佳途徑。OpenAI從最初的開源策略轉變為閉源,以確保商業回報和持續創新。 4. 資金與投資:他提到,為了推動AGI的發展,無論每年需要多少資金,只要能為全人類和AI領域做出貢獻,他都不在乎。 5. OpenAI的核心能力:OpenAI的核心能力在于技術變革,能夠定義AI能力的下一個范式轉變。 6. Sora模型:OpenAI發布了文生視頻模型Sora,這可能會對影視、游戲開發、廣告營銷等行業產生重大影響。 7. 免費使用ChatGPT:OpenAI宣布無需注冊就能免費使用ChatGPT,這有助于那些沒有能力開發類似產品的國家或地區。 8. 英偉達與OpenAI的合作:英偉達創始人黃仁勛向OpenAI捐贈了先進的AI超級計算機,這表明了兩家公司之間的緊密合作關系。
4月24日,蘋果開源了大語言模型OpenELM。這與微軟剛開源的Phi-3 Mini類似,是一款專門針對手機等移動設備的模型。
以下是一些重點信息的摘要: 1. 開源OpenELM: 蘋果公司開源了一個名為OpenELM的大語言模型,這與微軟開源的Phi-3 Mini類似,是專為移動設備設計的模型。 2. 模型參數: OpenELM提供了四種不同參數規模的模型,分別是2.7億、4.5億、11億和30億參數。 3. 功能: 該模型能夠執行生成文本、代碼、翻譯、總結摘要等功能。 4. 預訓練數據: 盡管最小的模型只有2.7億參數,但蘋果使用了1.8萬億tokens的數據進行預訓練,這是其小參數下仍能表現出色的原因之一。 5. 深度神經網絡庫CoreNet: 蘋果同時開源了用于訓練OpenELM的深度神經網絡庫CoreNet,該庫在開源后不久就在GitHub上獲得了超過1100個星標。 6. 蘋果的開源策略: 蘋果通常在手機領域采取閉源策略,但此次開源可能是為了吸引用戶,未來可能會推出閉源產品實現商業化。 7. 技術貢獻: 蘋果不僅發布了模型權重和推理代碼,還發布了完整的訓練和評估框架,包括數據準備、模型訓練、微調和評估流程,以及多個預訓練檢查點和訓練日志。 8. OpenELM架構: OpenELM的架構,包括其技術創新點,如無編碼器的transformer架構、層級縮放策略、不使用全連接層中的可學習偏置參數等。 9. 訓練流程與數據集: 蘋果使用CoreNet作為訓練框架,Adam優化算法,以及動態分詞和數據過濾的方法。
開源地址:https://huggingface.co/collections/apple/openelm-instruct-models-6619ad295d7ae9f868b759ca?ref=maginative.com CoreNet地址:https://github.com/apple/corenet?ref=maginative.com 論文地址:https://arxiv.org/abs/2404.14619
Adobe Photoshop 引入了全新的 Firefly Image 3 圖像 AI 模型,這一更新是在2024年4月23日宣布的。這個新模型是基于 Adobe Firefly Image 3 Foundation Model 開發的,旨在為創意專業人士和設計師提供更多的AI圖像編輯功能和改進。
Firefly Image 3 模型不僅增加了生成式AI特性,還對Photoshop現有的所有功能進行了改進,使得生成的圖像和輸出看起來更加逼真、詳細。
Firefly Image 3 模型通過提供更多的控制、改進圖像生成以及使編輯過程更直觀,大幅提升了圖像編輯的深度與靈活性。這些新功能包括但不限于根據文本提示制作基于AI的圖像,以及在Photoshop中引入的新的人工智能功能,如Reference Image等。
Adobe Firefly Image 3 模型的引入,標志著Adobe在AI圖像生成領域的一個重要進步,它不僅增強了創意專業人士和設計師的工作效率和創造力,也為用戶提供了更加豐富和強大的圖像編輯工具。這些更新預計將在今年晚些時候通過Photoshop的beta桌面應用向公眾開放。
原文地址戳這里!
最近,Adobe 發布了視頻超分項目 VideoGigaGAN。從演示效果來看相當牛批,支持8倍視頻放大,可以適應不同風格的視頻。
詳細介紹: 該模型能夠生成既保持時間連貫性又具有高頻細節的視頻。VideoGigaGAN基于一個先進的大規模圖像放大模型GigaGAN進行設計和優化。 如果簡單地將GigaGAN擴展為視頻處理模型,并增加處理時間信息的模塊,會引起視頻中的嚴重閃爍問題。為解決這一問題,我們識別并改進了幾個關鍵技術點,顯著提升了視頻的時間穩定性。 通過在公開數據集上與其他先進的VSR模型對比,并展示8倍超分辨率的視頻效果,我們驗證了VideoGigaGAN的高效性。
項目地址:https://videogigagan.github.io/
Stability AI 開發者平臺 API 現已支持最新版本的 Stable Diffusion3(SD3)及其增強版本 Stable Diffusion3Turbo。
SD3模型的亮點在于其對字體和提示的遵循能力,這在人類偏好評估中得到了突出體現。為了實現這一目標,SD3采用了新的多模態擴散變換器(MMDiT)架構,該架構改進了對圖像和語言表示的權重分離處理,從而顯著增強了模型的文本理解和拼寫能力。這使得SD3在理解和執行用戶的文本提示時更為精準,生成的圖像更加符合用戶的預期。
Stability AI在不斷提升服務質量,盡管SD3模型已經通過API對外提供,但公司仍在持續對模型進行優化。Stability AI計劃在不久的將來開放模型權重,允許擁有Stability AI會員資格的用戶自行托管,這將增強用戶的自主性和靈活性。
Stability AI與Fireworks AI的合作確保了API平臺的高速和可靠性,公司承諾提供99.9%的服務可用性,這對于企業用戶來說尤為重要,因為他們在使用開發者平臺進行關鍵的生成型AI工作時,需要確保服務的穩定性和可靠性。
至于能不能和 Midjourney v6 相媲美或者超越 V6 ,大家不妨多體驗,試試看!
API文檔:https://top.aibase.com/tool/stable-diffusion-3-api 體驗地址:https://sdxlturbo.ai/stable-diffusion3
哎呀,昨晚 Meta 發布被稱為最強開源的 Llama 3 系列模型了,大晚上扔了個炸彈啊!說實話,這事兒也不算太意外,畢竟 Meta 總是喜歡搞點大動作。他們這次帶來的就是那個自稱“有史以來最牛”的開源大模型——Llama 3系列。 咱們設計師,又可以借助這個新模型好好發揮一番了!
一起看看這個 GPT-4 級模型,它能干得過 GPT-4 么?
Llama 3模型的特點 - 規模與性能:Meta開源了兩款不同規模的Llama 3模型,分別是8B和70B參數規模。Llama 3 8B在性能上與Llama 2 70B相當,而Llama 3 70B則在性能上媲美甚至超越了其他頂尖AI模型。 - 技術改進:Llama 3在預訓練和后訓練方面都有所改進,優化了模型的一致性和響應多樣性,降低了出錯率。 - 多模態與多語言:未來幾個月,Meta將推出具備多模態、多語言對話和更長上下文窗口的新模型,其中包括超過400B的模型,預計將與現有的頂尖模型競爭。
Llama 3的性能測試 - 基準測試:Llama 3在多個測試中得分超越了其他同類模型,顯示出其在推理、代碼生成和遵循指令等方面的突破性提升。 - 人類評估數據集:Meta開發了一套新的高質量人類評估數據集,用于準確研究模型性能。
開源與閉源的辯論 - 開源優勢:Meta堅定地支持開源路線,認為這有助于推動社區和公司雙方的創新。 - 未來展望:盡管Llama 3為開源模型贏得了一場勝利,但關于開源與閉源的辯論仍在繼續。未來,可能會有更高性能的模型出現,為這場辯論帶來新的轉折。
附上 Llama 3 體驗地址:https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct
近日,在量子位舉辦的中國AIGC產業峰會現場,一份行業參考正式出爐——《中國AIGC應用全景報告》。
1. 市場規模預測:預計2024年中國AIGC應用市場規模將達到200億人民幣,到2030年將達到萬億規模。 2. 投融資情況:去年,AIGC領域發生了至少5起代表性融資事件,其中智譜AI和月之暗面的Kimi智能助手分別獲得了巨額融資。 3. 商業模式:B端產品(面向企業的產品)80%實現營收,而C端產品(面向消費者的產品)近50%以免費為主。 4. AI應用類型:AI原生應用占比高于X+AI,即完全基于生成式AI技術打造的原生應用占比接近57%。 5. 技術趨勢:多模態技術(能識別和理解兩種及以上模態數據的產品)是大趨勢,目前占比近50%。 6. 產品落地:AIGC應用產品落地的首要因素是場景與技術的匹配,技術成熟度決定落地速度。 7. 投資資源:AIGC產業投資資源向頭部聚集,潛在資本重點看向應用層。 8. 地域分布:北京、上海、杭州、深圳是AIGC應用產品最多的地區。
原文地址:https://mp.weixin.qq.com/s/-jvjxWxssQvfgToxfJbzvA 完整報告下載:jkhbjkhb.feishu.cn/wiki/W5D7wuDcbiPXDLkaRLQcAJpOn8f
各位設計師小伙伴,現在用Midjourney、DALL·E 3、Stable Diffusion 這些AI模型來生成圖片的時候,如果生成的圖片樣式并不完全符合你的設計需求,大家都是怎么處理的啊?
常規操作,你得用 PS、Adobe Lightroom這些軟件來調整。不過說實話,這樣挺費時的,也不太符合現在AI時代的高效率要求。
近日「AIGC開放社區」就為大家介紹一款最近公測的高效圖片無限重生樣式的免費試用AI平臺——Freepik。這個平臺現在是公測期,而且提供免費試用。
你只需要把圖片上傳到Freepik,選擇3D、繪畫、懷舊、卡通、超現實等樣式,就能在幾秒內快速實現。
對于我們這些設計師來說,Freepik簡直就是個神器,強烈推薦給大家試試!
Freepik免費試用地址:https://www.freepik.com/pikaso/reimagine
昨晚,Adobe在官網宣布,將OpenAI的Sora、Pika 、Runway等著名第三方文生視頻模型,集成在視頻剪輯軟件Premiere Pro中(簡稱“PR”)。這些集成的模型和功能將通過AI驅動的音頻編輯功能,使得音頻編輯變得更快、更輕松、更直觀。
這次更新是Adobe對PR的一次重大重構,旨在幫助用戶簡化創作流程,并提供多樣化的創作靈感。通過生成式AI的加持,PR將為專業視頻剪輯師和業余愛好者帶來更高效和便捷的創作體驗。
△鼠標右鍵,勾選“顯示控件”,可以打開聲音哦!
用Sora生成視頻素材 Adobe的創新之一是將Sora、Gen-2、Pika以及Firefly系列模型集成到PR中,這將幫助用戶快速為作品添加不同類型的視頻素材和動態效果。例如,用戶只需輸入文本提示“夜雨中的城市風景”,就能通過Sora生成相應的視頻素材,并將其應用在視頻項目中作為背景或增強主軌道視頻。預覽展示表明,用戶一次可以生成三個視頻供選擇。
快速替換、刪除視頻特定區域 Adobe自研的Firefly模型使得替換視頻素材中的特定區域變得輕松。過去,替換素材需要新增一條素材視頻軌道并調整圖層,而現在通過Firefly,用戶只需用鋼筆工具圈選區域并輸入提示文本,如“一大堆寶石”,即可選擇合適的素材進行替換。 此外,Firefly還提供了精準刪除或替換視頻中無用對象的功能。以往需要通過遮蓋、模糊處理等繁瑣方法移除的對象,如垃圾桶或電表箱,現在可以輕松點擊一下快速刪除或替換。
用生成式AI制作定格幀 傳統的視頻定格幀制作流程相對繁瑣,需要找到需要定格的視頻序列,確定并添加幀保持,然后調整定格幀的持續時間。現在,借助生成式AI功能,用戶只需拖動視頻的定格靜態幀,AI將自動生成補充內容,簡化了整個制作過程。 Adobe創意產品部高級副總裁Ashley Still表示,Adobe正在重新構想視頻創作流程的每一個步驟,為創作者提供更高效、便捷的功能。通過將生成式AI深度融合到PR的核心工作流程中,Adobe正在解決視頻編輯人員每天遇到的真正制作痛點,幫助他們節省時間并提升創意靈感。
這些更新和創新展示了Adobe對于AIGC領域的重視和投入,以及其致力于推動多媒體創作工具向前發展的決心。通過集成先進的AI技術,Adobe旨在為創作者提供更加強大和靈活的創作平臺,以激發更多的創意和可能性。