性无码一区二区三区在线观看,少妇被爽到高潮在线观看,午夜精品一区二区三区,无码中文字幕人妻在线一区二区三区,无码精品国产一区二区三区免费

徐土豆
認證:優(yōu)質(zhì)創(chuàng)作者
所在專題目錄 查看專題
緊致卷積網(wǎng)絡(luò)設(shè)計——Shift卷積算子
卷積網(wǎng)絡(luò)模型壓縮的若干總結(jié)
DenseNet的理解
一文搞懂反卷積,轉(zhuǎn)置卷積
作者動態(tài) 更多
給定計算預(yù)算下的最佳LLM模型尺寸與預(yù)訓練數(shù)據(jù)量分配
05-19 09:33
大模型推理時的尺度擴展定律
05-18 10:32
世界多胞體與世界模型
05-13 09:42
獎勵模型中的尺度擴展定律和獎勵劫持
05-12 08:41
MeCo——給預(yù)訓練數(shù)據(jù)增加源信息,就能減少33%的訓練量并且提升效果
05-08 09:13

一文搞懂反卷積,轉(zhuǎn)置卷積

用轉(zhuǎn)置卷積進行上采樣對于上采用的需求當我們用神經(jīng)網(wǎng)絡(luò)生成圖片的時候,經(jīng)常需要將一些低分辨率的圖片轉(zhuǎn)換為高分辨率的圖片。

對于這種上采樣(up-sampling)操作,目前有著一些插值方法進行處理:

  • 最近鄰插值(Nearest neighbor interpolation)
  • 雙線性插值(Bi-Linear interpolation)
  • 雙立方插值(Bi-Cubic interpolation)

以上的這些方法都是一些插值方法,需要我們在決定網(wǎng)絡(luò)結(jié)構(gòu)的時候進行挑選。這些方法就像是人工特征工程一樣,并沒有給神經(jīng)網(wǎng)絡(luò)學習的余地,神經(jīng)網(wǎng)絡(luò)不能自己學習如何更好地進行插值,這個顯然是不夠理想的。

為什么是轉(zhuǎn)置卷積

轉(zhuǎn)置卷積(Transposed Convolution)常常在一些文獻中也稱之為反卷積(Deconvolution)和部分跨越卷積(Fractionally-strided Convolution),因為稱之為反卷積容易讓人以為和數(shù)字信號處理中反卷積混起來,造成不必要的誤解,因此下文都將稱為轉(zhuǎn)置卷積,并且建議各位不要采用反卷積這個稱呼。

如果我們想要我們的網(wǎng)絡(luò)可以學習到最好地上采樣的方法,我們這個時候就可以采用轉(zhuǎn)置卷積。這個方法不會使用預(yù)先定義的插值方法,它具有可以學習的參數(shù)。理解轉(zhuǎn)置卷積這個概念是很重要的,因為它在若干重要的文獻中都有所應(yīng)用,如:

  • 在DCGAN中的生成器將會用隨機值轉(zhuǎn)變?yōu)橐粋€全尺寸(full-size)的圖片,這個時候就需要用到轉(zhuǎn)置卷積。
  • 在語義分割中,會使用卷積層在編碼器中進行特征提取,然后在解碼層中進行恢復(fù)為原先的尺寸,這樣才可以對原來圖像的每個像素都進行分類。這個過程同樣需要用到轉(zhuǎn)置卷積。

卷積操作

讓我們回顧下卷積操作是怎么工作的,并且我們將會從一個小例子中直觀的感受卷積操作。假設(shè)我們有一個4 × 4 的矩陣,我們將在這個矩陣上應(yīng)用3 × 3 的卷積核,并且不添加任何填充(padding),步進參數(shù)(stride)設(shè)置為1,就像下圖所示,輸出為一個2 × 2 的矩陣。

這個卷積操作在輸入矩陣和卷積核中,對每個元素的乘積進行相加。因為我們沒有任何填充和使用1為步進,因此我們只能對這個操作進行4次,因此我們的輸出矩陣尺寸為2 × 2 。

這種卷積操作使得輸入值和輸出值之間存在有位置上的連接關(guān)系,舉例來說,輸入矩陣左上方的值將會影響到輸出矩陣的左上方的值。更具體而言,3 × 3的卷積核是用來連接輸入矩陣中的9個值,并且將其轉(zhuǎn)變?yōu)檩敵鼍仃嚨囊粋€值的。一個卷積操作是一個多對一(many-to-one)的映射關(guān)系。讓我們記住這個,我們接下來將會用得著。

反過來操作吧

現(xiàn)在,假設(shè)我們想要反過來操作。我們想要將輸入矩陣中的一個值映射到輸出矩陣的9個值,這將是一個一對多(one-to-many)的映射關(guān)系。這個就像是卷積操作的反操作,其核心觀點就是用轉(zhuǎn)置卷積。舉個例子,我們對一個2 × 2 的矩陣進行上采樣為4 × 4 的矩陣。這個操作將會維護一個1對應(yīng)9的映射關(guān)系。

因此就結(jié)論而言,卷積操作是多對一,而轉(zhuǎn)置卷積操作是一對多,如下圖所示,每一個“對”而言,都需要維護一個權(quán)值。

但是我們將如何具體操作呢?為了接下來的討論,我們需要定義一個卷積矩陣(convolution matrix)和相應(yīng)的轉(zhuǎn)置卷積矩陣(transposed convolution matrix)。

卷積矩陣

我們可以將一個卷積操作用一個矩陣表示。這個表示很簡單,無非就是將卷積核重新排列到我們可以用普通的矩陣乘法進行矩陣卷積操作。如下圖就是原始的卷積核:

我們對這個3 × 3 的卷積核進行重新排列,得到了下面這個4 × 16 的卷積矩陣:

這個便是卷積矩陣了,這個矩陣的每一行都定義了一個卷積操作。下圖將會更加直觀地告訴你這個重排列是怎么進行的。每一個卷積矩陣的行都是通過重新排列卷積核的元素,并且添加0補充(zero padding)進行的。

為了將卷積操作表示為卷積矩陣和輸入矩陣的向量乘法,我們將輸入矩陣4 × 4攤平(flatten)為一個列向量,形狀為16 × 1 ,如下圖所示。

我們可以將這個4 × 16的卷積矩陣和1 × 16 的輸入列向量進行矩陣乘法,這樣我們就得到了輸出列向量。

這個輸出的4 × 1 的矩陣可以重新塑性為一個2 × 2的矩陣,而這個矩陣正是和我們一開始通過傳統(tǒng)的卷積操作得到的一模一樣。

簡單來說,這個卷積矩陣除了重新排列卷積核的權(quán)重之外就沒有啥了,然后卷積操作可以通過表示為卷積矩陣和輸入矩陣的列向量形式的矩陣乘積形式進行表達。

所以各位發(fā)現(xiàn)了嗎,關(guān)鍵點就在于這個卷積矩陣,你可以從16(4 × 4 )到4(2 × 2)因為這個卷積矩陣尺寸正是4 × 16 的,然后呢,如果你有一個16 × 4的矩陣,你就可以從4(2 × 2)到16(4 × 4 )了,這不就是一個上采樣的操作嗎?啊哈!讓我們繼續(xù)吧!

轉(zhuǎn)置卷積矩陣

我們想要從4(2 × 2 )到16(4 × 4 ),因此我們使用了一個16 × 4 的矩陣,但是還有一件事情需要注意,我們是想要維護一個1到9的映射關(guān)系。

假設(shè)我們轉(zhuǎn)置這個卷積矩陣變?yōu)?span>。我們可以對和列向量( 4 × 1 ) 進行矩陣乘法,從而生成一個16 × 1的輸出矩陣。這個轉(zhuǎn)置矩陣正是將一個元素映射到了9個元素。

這個輸出可以塑形為( 4 × 4 ) 的矩陣:

我們只是對小矩陣( 2 × 2 )進行上采樣為一個更大尺寸的矩陣( 4 × 4 ) 。這個轉(zhuǎn)置卷積矩陣維護了一個1個元素到9個元素的映射關(guān)系,因為這個關(guān)系正表現(xiàn)在了其轉(zhuǎn)置卷積元素上。

需要注意的是:這里的轉(zhuǎn)置卷積矩陣的參數(shù),不一定從原始的卷積矩陣中簡單轉(zhuǎn)置得到的,轉(zhuǎn)置這個操作只是提供了轉(zhuǎn)置卷積矩陣的形狀而已。

總結(jié)

轉(zhuǎn)置卷積操作構(gòu)建了和普通的卷積操作一樣的連接關(guān)系,只不過這個是從反向方向開始連接的。我們可以用它進行上采樣。另外,這個轉(zhuǎn)置卷積矩陣的參數(shù)是可以學習的,因此我們不需要一些人為預(yù)先定義的方法。即使它被稱為轉(zhuǎn)置卷積,它并不是意味著我們將一些現(xiàn)存的卷積矩陣簡單轉(zhuǎn)置并且使用其轉(zhuǎn)置后的值。

從本質(zhì)來說,轉(zhuǎn)置卷積不是一個卷積,但是我們可以將其看成卷積,并且當成卷積這樣去用。我們通過在輸入矩陣中的元素之間插入0進行補充,從而實現(xiàn)尺寸上采樣,然后通過普通的卷積操作就可以產(chǎn)生和轉(zhuǎn)置卷積相同的效果了。你在一些文章中將會發(fā)現(xiàn)他們都是這樣解釋轉(zhuǎn)置卷積的,但是這個因為在卷積操作之前需要通過添加0進行上采樣,因此是比較低效率的。

注意:轉(zhuǎn)置卷積會導(dǎo)致生成圖像中出現(xiàn)棋盤效應(yīng)(checkerboard artifacts),這篇文章《Deconvolution and Checkerboard Artifacts》推薦了一種上采樣的操作(也就是插值操作),這個操作接在一個卷積操作后面以減少這種現(xiàn)象。如果你的主要目的是生成盡可能少棋盤效應(yīng)的圖像,那么這篇文章就值得你去閱讀。

聲明:本內(nèi)容為作者獨立觀點,不代表電子星球立場。未經(jīng)允許不得轉(zhuǎn)載。授權(quán)事宜與稿件投訴,請聯(lián)系:editor@netbroad.com
覺得內(nèi)容不錯的朋友,別忘了一鍵三連哦!
贊 3
收藏 4
關(guān)注 52
成為作者 賺取收益
全部留言
0/200
成為第一個和作者交流的人吧