酷播亮新聞
最棒的知識補給站

BAIR提出MC-GAN,使用GAN實現字體風格遷移

摘要:選自BAIR作者:SamanehAzadi機器之心編譯參與:NurhachuNull、路近日,BAIR發布博客提出MC-GAN(Multi-ContentGAN),可以快速生成相同風格的字體。 左圖:已

選自BAIR

作者:Samaneh Azadi

機器之心編譯

參與:Nurhachu Null、路

近日,BAIR 發布博客提出 MC-GAN(Multi-Content GAN),可以快速生成相同風格的字體。

左圖:已有的一張電影海報;右圖:使用 MC-GAN 生成的新電影名稱。

文本是二維設計中的一個顯著視覺元素。 藝術家投入了大量時間設計在視覺上與其他元素的形狀和紋理相兼容的字形。 這個過程需要大量勞動,藝術家們通常只設計標題或註釋所必需的字形子集,這使得設計完成後文本很難更改,或者很難把看到的字體實例遷移到自己的項目中。

早期字形合成研究集中在輪廓的幾何建模上,局限於特定的字形拓撲上(例如,不能應用到裝飾字體或者手寫體),並且不能與圖像輸入一起使用。 隨著深度神經網絡的興起,研究者研究了從圖像進行字形建模的問題。 另一方面,合成與局部觀察相一致的數據在計算機視覺和圖形學中是一個有趣的問題,例如,多視角圖像生成、補全圖像中的缺失區域,以及三維形狀的生成。 字體數據是一個典型的例子,它提供了文字樣式和內容的清晰分解。

條件生成對抗網絡(cGANS)[1] 的最新進展在許多生成應用中取得了成功。 然而,它們只有在相當特定的領域中才能發揮最佳效果,無法適應通用領域或多領域遷移。 類似地,當被直接用來生成字體時,cGAN 模型會生成嚴重的失真。 例如,給定下面五個字母:

條件生成對抗網絡模型無法以同一種風格生成 26 個字母:

用於 Few Shot 字體風格遷移的多內容生成對抗網絡

我們設計了多內容
  GAN 架構 [2]
來為每個觀察到的字符集(只具備少量觀察到的字形)重新訓練定制的魔法網絡,而不是為所有可能的字體裝飾訓練單個網絡。 該模型考慮沿著信道的內容(即
A-Z 字形)和沿著網絡層的樣式(即字形裝飾),將給定字形的樣式遷移到模型未見過的字形的內容。

多內容 GAN
模型包括用於預測粗糙字形形狀的堆疊 cGAN 架構和用於預測最終字形顏色和紋理的裝飾網絡(ornamentation
network)。 第一個網絡稱為 GlyphNet,用於預測字形掩碼;第二個網絡稱為
OrnaNet,用於微調從第一個網絡生成字形的顏色和裝飾。 每個子網絡遵循條件生成對抗網絡(cGAN)的結構,並修改該結構以達到使字形風格化或裝飾預測的特定目的。

網絡架構

下面是 GlyphNet 示意圖,它從一組訓練字體中學習字體流形的一般形狀。 GlyphNet 的輸入和輸出是字形的堆棧,其中每個字母分配有一個通道。 在每個訓練迭代中,x_1 包含一個由 y_1 字形組成的隨機子集,剩餘輸入通道被清零。

通過這種新穎的字形堆棧設計,跨網絡信道學習不同字形之間的相關性得以實現,並實現風格自動遷移。 下圖通過結構類似性(SSIM)指標在包含
  1500 個字體樣例的隨機集合上展示了這種相關性。 計算每個生成字形與其真實字形之間的結構相似性時,當一次觀察到一個字母時,共發現了 25
種分佈。 這些曲線圖顯示了當觀察到字母 β(藍色)時生成字母 α 的分佈 α|β 與當給出除 β 以外的任何其它字母(紅色)時生成字母 α 的分佈
  α|β。 在生成 26
個字母中的每一個字母時,兩個信息量最大的給定字母和兩個信息量最少的給定字母的分佈如圖所示。 例如,從圖的第五行來看,與其他字母相比,字母 F 和 B
  在生成字母 E 方面是最有信息貢獻的,而 I 和 W 是信息最少的。 其他例子中,O 和 C 是構造 G 的最具指導性的字母,R 和 B 是生成
  P 的最具指導性的字母。

因此,對於任何僅有幾個觀察字母的期望字體,預訓練的
  GlyphNet 要生成全部的 26 個 A-Z 字形。 但是我們應該如何遷移裝飾呢? 第二個網絡 OrnaNet
採用這些生成的字形,在簡單的整形變換(reshape transformation)和灰度信道重複之後(在下圖中用 T 表示),使用條件 GAN
  架構生成具備期望顏色和裝飾的輸出。 OrnaNet 的輸入和輸出是批量的 RGB 圖像,而不是堆棧(其中每個字母的 RGB
信道是其對應的灰度字形的重複)。 OrnaNet 中的多個正則化器會懲罰風格化字母掩膜與其對應字形形狀的偏差。

結果

下面,我們將使用單個單詞給出的字體樣式演示例句。

此外,以下是 OrnaNet 預測的逐步改進:

參考資料

[1]
  Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, and Alexei A. Efros.
“Image-to-Image Translation with Conditional Adversarial Networks.” CVPR
  2017.

[2] Samaneh Azadi, Matthew Fisher, Vladimir Kim, Zhaowen
Wang, Eli Shechtman, and Trevor Darrell. “Multi-Content GAN for Few-Shot
  Font Style Transfer.” CVPR 2018.

論文鏈接:https://arxiv.org/abs/1712.00516

GitHub 鏈接:https://github.com/azadis/MC-GAN

原文鏈接:http://bair.berkeley.edu/blog/2018/03/13/mcgan/

版權聲明

本文僅代表作者觀點,不代表百度立場。
本文係作者授權百度百家發表,未經許可,不得轉載。

如有侵權請來信告知:酷播亮新聞 » BAIR提出MC-GAN,使用GAN實現字體風格遷移