Magnific 又一次找到新的增長點了。這次,他們推出了一個PS插件,
這個插件的主要功能包括圖像放大和細節增強,能夠直接在 Photoshop 內部使用,無需額外操作。
具體來說,Magnific 的 PS 插件通過 Adobe Store 安裝后,可以無縫集成到 Photoshop 中。用戶只需點擊放大按鈕,插件便會在 Photoshop 中自動工作,將放大后的圖像作為新圖層插入,從而保持創作過程的流暢性。
MagnificPS插件的詳細使用教程:
Magnific 的這一插件不僅簡化了圖像處理流程,還顯著提升了工作效率,滿足了專業用戶的高需求。大家覺得這個插件的實用性怎么樣?
近日,蘋果公司與瑞士洛桑聯邦理工學院(EPFL)聯合開源了一款名為4M-21的多模態視覺模型。該模型具有廣泛的通用性和靈活性,盡管只有30億參數,但它可以執行數十種任務,包括圖像分類、目標檢測、語義分割、實例分割、深度估計和表面法線估計等。
4M-21模型在21種不同的模態下進行訓練,能夠處理包括圖像、文本、音頻等多種模態的任務。這種多模態能力使其在跨模態檢索、可控生成和開箱即用性能方面表現出色。
4M-21還支持任意到任意模態的轉換,進一步擴展了其應用范圍。
4M-21模型的推出標志著從傳統單模態優化模型向多模態綜合處理能力的重大轉變,展示了蘋果在AI領域的強大實力和創新能力。
開源地址:https://github.com/apple/ml-4m/ 論文地址:https://arxiv.org/abs/2406.09406 在線demo:https://huggingface.co/spaces/EPFL-VILAB/4M
今天發現了一個聲音克隆的好東西,我剛剛挖到的Fish Speech這個工具,不僅生成速度快到飛起,而且克隆出的聲音也很真實,支持文字轉語音功能,非常的好用!
Fish Speech 是一款由fishaudio開發的全新文本轉語音(TTS)工具,具有強大的語音克隆能力。用戶只需提供一段參考語音,系統便能迅速進行語音克隆,無需繁瑣的訓練過程。
該工具支持中文、英語和日語等多種語言,并且在語音處理上的能力接近人類水平。 Fish Speech采用了先進的AI技術,包括VQ-GAN、Llama和VITS等,能夠將文本轉換成逼真的語音。它還采用了Flash-Attn算法,以提高處理大規模數據的效率和穩定性。這些技術使得Fish Speech不僅在語音合成方面表現出色,還在語音克隆方面具有顯著的優勢。
Fish Speech的語音克隆功能特別適合內容創作者使用,他們可以利用這一工具快速生成各種聲音效果,用于視頻配音、播客制作等場景。
試玩地址:https://fish.audio/zh-CN/
今年4月份給大家透露過我們要發布新字體,現在優設招牌體正式發布!
優設招牌體是一款傳統書寫結合現代工具創作的標題美術字體。取魏碑結構轉折銳利鋒芒的特點,筆畫造型勻稱有力,給人一種剛毅且渾厚的氣質。字體骨架左低右高,賦予其勃勃生機,主筆粗細相間中宮收緊,整體風格質樸剛強、氣勢恢宏。
我們期望優設招牌體以它獨特的磅礴之美打動你,成為大家在各類設計中的理想選擇,讓人不容忽視,甚至眼前一亮。如商業門面的醒目招牌、文化傳播的力作海報、及富含傳統韻味的產品包裝等,幫助你的產品處處彰顯非凡格調。
更多介紹看這里?? http://www.hx168888.com/uisdc-zhaopaiti
卷起來了,前不久阿里云推出了首個“AI程序員”。能夠一站式自主完成任務分解、代碼編寫、測試、問題修復和代碼提交等整個過程,能夠在分鐘級時間內完成應用開發。 近日,字節跳動推出了一款名為豆包 MarsCode 的智能開發工具,面向國內開發者免費開放。
核心功能: 1、提供智能代碼補全、Bug修復、單元測試生成等AI功能。 2、支持多種編程語言和主流IDE。
云端集成開發環境(Cloud IDE):豆包MarsCode包含AI原生的云端IDE,無需配置復雜環境,直接在瀏覽器中進行編程和調試。 支持語言:支持C、C++、C#、Go、JavaScript、Java、Node.js、Rust、TypeScript等多種編程語言。 開發模板:提供多種開發環境和模板,減少環境配置時間。 原生AI能力:具備代碼自動補全與生成、問題修復、代碼優化等功能。
主要特點: 1、開箱即用,簡化環境配置。 2、云端IDE,隨時隨地開發。 3、彈性云端資源,不受本地資源限制。
主要功能: - 編程助手和Cloud IDE:提供代碼編寫提議、代碼補全、Lint錯誤修復等。 - 項目問答功能:針對需求開發、Bug修復、開源項目學習等場景提供支持。
更多介紹可以訪問豆包 MarsCode官網!
昨天,在開發者們收到的警告信中,OpenAI 寫道:將采取額外措施,封禁來自不支持國家和地區的API流量。7月9日起,將終止對不支持國家的API服務,中國包括在內。
昨天看到有小伙伴還在吐槽,剛續費了 ChatGPT 會員,不要慌,現在 LibreChat 橫空出世,作為一個免費的開源 ChatGPT 克隆版,它不僅支持多種 AI 模型,還提供了靈活的自定義選項,解決了多 AI 模型整合和切換的問題。
LibreChat 代表了開源的精神和對技術的熱愛,為用戶提供了安全、靈活的聊天環境,大家不妨用著試試看!
LibreChat 官網
大家好,我想給大家介紹一個專為插畫師和藝術愛好者設計的在線AI上色工具:Petalica Paint ,推薦大家試玩~
Petalica Paint 它的一大特點是內置的AI自動上色功能,你只需上傳線稿圖,軟件就能智能識別并自動填充色彩,大大縮短了手動上色的時間,非常適合追求效率的創作者。工具提供了多樣化的上色風格選項,可以根據作品的風格和自己的喜好進行選擇。
Petalica Paint 還有線稿提取功能,無論是草圖還是照片,都能清晰地分離出線條,為上色前的準備工作做好鋪墊。在色彩調整方面,用戶享有高度自由,可以任意調節顏色、透明度和飽和度,確保每個細節都符合你的創作愿景。
該軟件與pixiv Sketch平臺實現了良好的集成,你可以在pixiv Sketch里直接無縫使用Petalica Paint的各項功能,無需切換應用。
試玩→ Petalica Paint
近日,Anthropic 公司發布了 Claude 3.5 Sonnet,作為 OpenAI 的勁敵,這款全新的人工智能模型在智能水平上超越了所有的競爭對手。在推理、知識和編碼能力方面,Claude 3.5 Sonnet 能夠迅速理解復雜指令,撰寫出高質量內容。與 Claude 3 Opus 相比,解碼速度提升兩倍,編碼評估中解決的問題比例高達64%,展現出無與倫比的獨立編寫、編輯和執行代碼能力,
Artifacts 功能更是錦上添花,允許用戶在Claude.ai上動態編輯和構建Claude生成的內容,甚至能直接展示生成的代碼為網頁,無論是HTML、JS、CSS還是SVG都能輕松實現。
Claude 3.5 Sonnet的到來,意味著代碼世界即將迎來一場革命。你,準備好迎接挑戰了嗎?
最近,Anthropic 發布了全新大模型 Claude 3.5 Sonnet,號稱是迄今為止最智能的模型。
Claude 3.5 Sonnet 是 Anthropic 即將推出的 Claude 3.5 系列的首個版本。該模型提高了整個領域的智能水平,在絕大多數基準評估中都超越了競品大模型和自家前代最強 Claude 3 Opus。而且,運行速度、成本與自家前代 Claude 3 Sonnet 相當。最重要的是可以免費使用!
以下是關于Claude 3.5 Sonnet的幾個關鍵點: 1. 模型性能:Claude 3.5 Sonnet在多個基準測試中,包括研究生水平推理(GPQA)、本科生水平知識(MMLU)和編碼能力(HumanEval),設定了新的行業標準,展現出對細微差別、幽默和復雜指令的出色理解能力,以及以自然、友好的方式生成高質量內容的能力。 2. 速度與成本:它的運行速度是其前代Claude 3 Opus的兩倍,同時保持了與Claude 3 Sonnet相似的成本效益,這意味著對于用戶來說,它能更高效地處理復雜任務,且價格合理。 3. 免費與付費訪問:Claude 3.5 Sonnet在Claude.ai網站和iOS應用上免費提供給用戶,而訂閱了Claude Pro和Team計劃的用戶可以享受更快的訪問速率。此外,它也通過Anthropic API和亞馬遜云科技Bedrock等平臺提供,定價為每百萬個輸入token 3美元,每百萬個輸出token 15美元。 4. 視覺能力:該模型在視覺識別和處理方面也表現出色,成為Anthropic至今為止最強的視覺模型,特別是在處理視覺推理任務,如解釋圖表、圖形轉錄文本等方面,這對零售、物流和金融服務等行業尤為重要。 5. Artifacts功能:Anthropic引入了一項名為Artifacts的新功能,允許用戶在與Claude交互時,于對話旁邊專用窗口中實時查看、編輯和構建由Claude生成的內容,比如代碼片段、文本文檔和網站設計,進一步促進了人工智能與人類工作的無縫集成。 6. 安全性考量:Claude 3.5 Sonnet經過嚴格的安全測試,并被分類為AI安全等級2(ASL-2),意味著它在化學、生物、放射性、核風險、網絡安全和自主能力等領域使用相對安全,不會造成災難性損害。Anthropic還與外部專家合作,不斷測試和完善模型的安全機制,以減少濫用風險。
地址:https://claude.ai/
Adobe Acrobat 迎來了重大 AI 升級,支持多文檔分析和圖像生成,此次升級主要包括以下兩個方面:
1、多文檔分析:Acrobat 的 AI 助手現在能夠同時分析和查詢多個文檔,包括非 PDF 文件。這意味著用戶可以將多個 PDF 或其他格式的文件拖拽至應用程序中,AI 助手會自動處理這些文件并提供相關信息。
2、圖像生成和編輯:Adobe Acrobat 引入了全新的“Generate Image”功能,用戶可以選擇 PDF 文件中的某段內容,調用 AI 來生成圖片,并調整圖片的樣式和大小。還有“Edit Image”功能,允許用戶通過 Firefly AI 模型對現有圖像進行編輯,例如刪除背景、擦除和裁剪等。
這次升級顯著增強了 Acrobat 的功能,使其在處理復雜文檔和圖像方面更加高效和智能。
各位設計師們,這個工具太牛了啊,只需在源圖像中指定需要編輯的區域,并提供一張參考圖,MimicBrush 就能智能捕捉兩者間的聯系,自動完成局部編輯或替換。該工具的主要功能包括局部區域編輯、紋理轉移和后期處理優化等。分享給大家!!
MimicBrush 是由中國香港大學、阿里巴巴集團和螞蟻集團聯合開發的一種零樣本圖像編輯工具,通過參考圖像進行模仿編輯,幫助用戶更方便地進行創作。
MimicBrush 的主要特點包括: 參考圖像模擬:分析并復制參考圖像中指定的視覺特征到源圖像中的標記區域,確保風格或內容的一致性。 零樣本圖像編輯:允許用戶在沒有原始目標圖像的情況下進行圖像編輯,通過參考仿制的方式實現編輯效果。 文本到圖像對齊:利用 CLIP 編碼器和 VAE 實現文本到圖像的對齊功能,用戶可以通過輸入文本描述來指導編輯過程。 多樣化的編輯結果:展示了一系列多樣化的編輯結果,包括局部區域編輯、紋理轉移和后期處理優化等功能。
MimicBrush 還簡化了復雜的編輯流程,提高了效率和靈活性,特別適用于產品定制、角色設計和特效制作等領域。其底層框架基于 SD1.5 的擴散模型和 MimicBrush 模型結合,極大地簡化了 AI 圖像編輯的流程。
項目地址:https://github.com/ali-vilab/MimicBrush
大家還記得 Sora 是什么時候發布的嗎?2 月份,當時 OpenAI 發布之后,一夜之間就把 AI 視頻生成界攪得天翻地覆啊,但是現在一點消息都沒有了,反倒是其他平臺遍地開花,特別是這個月,簡直太爆炸了~
昨天深夜,Runway 放出醞釀了半年的全新版本 Gen-3 Alpha,也讓我們再次見證了這些巨頭的底蘊。
Runway Gen-3 Alpha 特點如下: 高保真視頻生成:能夠生成接近真實世界質量的視頻內容,具有高度的細節和清晰度。 精細動作控制:模型能夠精確控制視頻中對象的動作和過渡,實現復雜場景的流暢動畫。 逼真人物生成:特別擅長生成具有自然動作、表情和情感的逼真人類角色。 多模態輸入:支持文字轉視頻、圖像轉視頻、文字轉圖像等多種創作方式。 先進工具:支持運動畫筆、相機控制和導演模式等專業創作工具。 增強的安全措施:引入新的內部視覺審核系統和 C2PA 標準,確保內容的安全性和可靠性。 高質量訓練:使用高描述性的、時間密集的字幕進行訓練,使模型能夠理解和生成具有豐富時間動態的視頻。
現在還在內測中,后期可以體驗的時候再給大家分享地址!
蘋果前段時間剛宣布 Vision Pro 國行版月底正式發售,近日騰訊視頻的 VisionOS 端就已經上線了,并且提供了沉浸式追劇的體驗。用戶可以在 App Store 下載該應用程序,騰訊視頻現在是國內首批支持VisionOS 的長視頻平臺之一。
騰訊視頻為 VisionOS 端用戶提供了超過 600 部資源,包括《慶余年第二季》、《三體》和《斗羅大陸》等熱門影視作品。這些內容不僅涵蓋了劇集、動漫、電競、電影、綜藝和紀錄片等多元內容類型,還總時長超過1000小時。
為了增強用戶的沉浸式體驗,騰訊視頻還推出了“IP空間體驗”、“王者沙盤”和“客廳巨幕影院”等多項功能。這些功能利用了Apple Vision Pro的空間計算特性,基于RealityKit與空間音頻技術,為用戶提供了更加真實和互動的觀看模式。 騰訊視頻的VisionOS端不僅提供了豐富的視頻資源,還通過先進的技術手段,為用戶帶來了前所未有的沉浸式追劇體驗。
騰訊視頻各種SVIP已經開好了,現在就差個 Vision Pro 了~~
斯坦福大學的研究團隊與 Apparate Labs 前幾天發布一款名為 Proteus 的創新 AI 視頻生成模型,可以從單一圖像生成笑、說唱、唱歌、眨眼、微笑、說話高度逼真和具有表現力的虛擬人物。 PROTEUS兼容多種大模型的多模態輸入,可以處理語音、文本和圖像等多種形式的數據。
Proteus模型亮點: - 高度逼真:利用先進的AI技術,Proteus能夠從單張圖片生成具有高度逼真表情和流暢動作的虛擬人物形象。 - 低延遲生成:Proteus模型具備低延遲特性,能夠實時響應語音輸入,生成每秒超過100幀的視頻流。 - 多模態交互:模型支持語音、文本和圖像等多種輸入形式,實現與用戶的自然直觀交互。
應用領域: Proteus模型在個性化虛擬助理、虛擬寵物、情感支持、客戶服務、教育和培訓、游戲定制、影視娛樂、市場營銷和社交媒體等領域具有廣泛的應用潛力。
申請體驗地址: https://apparate.ai/early-access.html