最近中文字幕国产一区二区,亚洲色swag在线无码,中国美妇的肉逼,无码 有码 日韩 人妻

Google AI 推出 MediaPipe Diffusion 插件:可在設(shè)備上實現(xiàn)可控的文本到圖像生成|全球快資訊

首頁 > 探索 > > 正文

日期:2023-07-03 16:51:02    來源:站長之家    


【資料圖】

站長之家(ChinaZ.com) 7月3日消息:Diffusion 模型近年來在文本到圖像生成方面得到廣泛應(yīng)用,并取得了顯著的成功,從而在圖像質(zhì)量、推理性能和創(chuàng)造性范圍方面實現(xiàn)了重大改進。然而,在難以用文字明確定義的條件下,有效的生成管理仍然是一個挑戰(zhàn)。

由谷歌研究人員開發(fā)的 MediaPipe Diffusion 插件使得用戶可以在設(shè)備上執(zhí)行文本到圖像的生成,并進行用戶控制。在這項研究中,谷歌延伸了之前關(guān)于設(shè)備上大型生成模型的 GPU 推理的工作,提出了低成本的可編程文本到圖像創(chuàng)建解決方案,可以集成到現(xiàn)有的 Diffusion 模型及其 LoRA 變體中。

Diffusion 模型中模擬了迭代去噪的圖像生成過程。Diffusion 模型的每一次迭代都以受噪聲污染的圖像開始,并以目標概念的圖像結(jié)束。通過文本提示的語言理解極大地增強了圖像生成過程。文本嵌入通過交叉注意力層與文本到圖像生成模型關(guān)聯(lián)起來。然而,物體的位置和姿態(tài)等細節(jié)可能更難以通過文本提示傳達。研究人員通過額外的模型將條件圖像中的控制信息引入到 Diffusion 中。

Plug-and-Play、ControlNet 和 T2I Adapter 方法經(jīng)常用于生成受控的文本到圖像輸出。Plug-and-Play 使用 Diffusion 模型的副本(Stable Diffusion1.5 版本的 860M 參數(shù))和廣泛使用的去噪 Diffusion 隱式模型(DDIM)反演方法來從輸入圖像中推導(dǎo)出初始噪聲輸入。

通過自注意力從復(fù)制的 Diffusion 中提取空間特征,并使用 Plug-and-Play 將其注入到文本到圖像 Diffusion 中。ControlNet 構(gòu)建了 Diffusion 模型編碼器的可訓(xùn)練副本,并通過一個帶有零初始化參數(shù)的卷積層連接到編碼條件信息,然后傳遞給解碼器層。不幸的是,這導(dǎo)致了模型的顯著增大,Stable Diffusion1.5 版本的參數(shù)約為 4.5 億個,相當于 Diffusion 模型本身的一半。T2I Adapter 在較小的網(wǎng)絡(luò)(77M 參數(shù))下實現(xiàn)了可比較的受控生成結(jié)果。條件圖像是 T2I Adapter 的唯一輸入,其結(jié)果被用于所有后續(xù)的 Diffusion 周期。然而,這種適配器樣式不適用于移動設(shè)備。

MediaPipe Diffusion 插件是谷歌開發(fā)的一個獨立網(wǎng)絡(luò),旨在使條件生成變得高效、靈活和可擴展。

作為一種便攜式的設(shè)備上文本到圖像創(chuàng)建范式,MediaPipe Diffusion 插件可以免費下載使用。它接收一個條件圖像,并通過多尺度特征提取將特征添加到 Diffusion 模型的編碼器中的適當尺度上。

當與文本到圖像 Diffusion 模型結(jié)合使用時,插件模型將一個條件信號添加到圖像生成過程中。谷歌希望插件網(wǎng)絡(luò)只有 600 萬個參數(shù),使其成為一個相對簡單的模型。

MediaPipe:https://developers.google.com/mediapipe

關(guān)鍵詞:

下一篇:馬塔:感謝伊卡爾迪送我土超冠軍獎杯,但他在任意球賭注上輸了_世界微頭條
上一篇:最后一頁

科技

 
陕西省| 石景山区| 德格县| 伊金霍洛旗| 枣阳市| 柳河县| 榆林市| 平阴县| 申扎县| 精河县| 洮南市| 宜丰县| 岳阳县| 昆明市| 武宣县| 吐鲁番市| 平陆县| 兰坪| 通江县| 玉田县| 延边| 江门市| 沂南县| 东至县| 鄱阳县| 保德县| 津市市| 峨边| 焦作市| 大邑县| 乡宁县| 郑州市| 汉中市| 都安| 阳曲县| 霸州市| 浙江省| 广水市| 安溪县| 洪江市| 通化市|