性无码一区二区三区在线观看,少妇被爽到高潮在线观看,午夜精品一区二区三区,无码中文字幕人妻在线一区二区三区,无码精品国产一区二区三区免费

徐土豆
認證:優(yōu)質(zhì)創(chuàng)作者
所在專題目錄 查看專題
數(shù)據(jù),模型,算法共同決定深度學(xué)習(xí)模型效果
一文理解Ranking Loss/Contrastive Loss/Margin Loss/Triplet Loss/Hinge Loss
參數(shù)和非參數(shù)模型——當談到參數(shù)我在說些什么?
在深度學(xué)習(xí)中,對于特征融合方式的思考——論pointwise addition和concatenate的異同
損失函數(shù)的可視化——淺論模型的參數(shù)空間與正則
曲線擬合問題與L2正則
作者動態(tài) 更多
給定計算預(yù)算下的最佳LLM模型尺寸與預(yù)訓(xùn)練數(shù)據(jù)量分配
2天前
大模型推理時的尺度擴展定律
3天前
世界多胞體與世界模型
1星期前
獎勵模型中的尺度擴展定律和獎勵劫持
1星期前
MeCo——給預(yù)訓(xùn)練數(shù)據(jù)增加源信息,就能減少33%的訓(xùn)練量并且提升效果
2星期前

在深度學(xué)習(xí)中,對于特征融合方式的思考——論pointwise addition和concatenate的異同

本文轉(zhuǎn)自徐飛翔的“在深度學(xué)習(xí)中,對于特征融合方式的思考——論pointwise addition和concatenate的異同

版權(quán)聲明:本文為博主原創(chuàng)文章,遵循 CC 4.0 BY-SA 版權(quán)協(xié)議,轉(zhuǎn)載請附上原文出處鏈接和本聲明。

Point-wise addition

逐個位相加,用數(shù)學(xué)表達為:現(xiàn)有特征向量, ,為了融合這兩個特征向量,直接進行對應(yīng)元素的相加,既是 , 。進行這個操作的前提當然是這兩個向量的維度是相同的,如果是不同維度,則可以通過線性變換轉(zhuǎn)換成同維向量,其中

Concatenate

向量拼接,則是一個更為通用的特征融合方法,數(shù)學(xué)表達為:現(xiàn)有特征向量 , ,將其在同一個階[2]的進行拼接,有融合特征向量 。拼接完后,經(jīng)??梢杂镁€性映射,轉(zhuǎn)換成 ,進行這一步的操作目的是能夠和前者point-wise addition的進行同維度的比較。

兩者關(guān)聯(lián)與異同

前面介紹的兩種操作,其實是有聯(lián)系的,結(jié)論先拋出了,就是:的特殊形式,前者可以用學(xué)習(xí)的方式,用后者表示出來,用另一種說法就是,加了一定先驗假設(shè)的結(jié)果。為什么這樣說呢?我們先觀察一種情況:

比較兩種特征融合的方式,并且進行線性映射后的結(jié)果,有:

這個時候我們可以發(fā)現(xiàn),通過學(xué)習(xí)過程中的自動參數(shù)調(diào)整,在的情況下,總是有辦法表達成中的結(jié)果的,原因就是可以通過設(shè)置情形下的 的某些值相同,還是舉原來的具體例子說明:

,此時只需要 ,就可以表達成和完全一樣的結(jié)果,讀者可以自行驗證。

就結(jié)論而言,因為情況下參數(shù)量完全足以的,因此通過學(xué)習(xí)過程,完全是可以進行表達的,因此后者是前者的特殊形式,是添加了先驗知識的特征融合方法。

那么,這個先驗知識是什么呢?筆者認為因為是在相同維度的特征空間中進行的,相加代表特征向量的平移,因此這個先驗知識可能是假設(shè)這兩類特征具有相似性,比如模態(tài)比較接近,性質(zhì)比較相同的特征。當然這個只是筆者猜測,并無文獻參考,歡迎各位斧正,謝謝。

Update 2019/10/26:評論區(qū)有朋友問:

“point-wise addition 是 concatenate的特殊形式”的結(jié)果似乎只在均將融合后的特征線性映射成標量后才成立,但是這兩種融合方法之后不一定要經(jīng)過這種處理吧?而且,這種線性映射會減少大量信息,似乎不甚合理?

我覺得這個問題其實是不成立的,因為原文里面舉的例子是映射成為標量只是為了舉例方便而已,實際上,映射成其他高維矢量也是沒問題的,比如說:在Pointwise addition的情況:

的情況中,我們有:

那么如果需要退化到的情況的話,我們的 可以為:

因為我們有八個未知量,而只有兩個方程,因此這是個病態(tài)問題,其實我們有多組解的,不管怎么樣,我們總是可以用concatenate去退化到addition的情況的,不管是映射到標量還是矢量。

Reference

[1]. Li K, Zou C, Bu S, et al. Multi-modal feature fusion for geographic image annotation[J]. Pattern Recognition, 2018, 73: 1-14.

[2]. https://blog.csdn.net/dcrmg/article/details/79017146

聲明:本內(nèi)容為作者獨立觀點,不代表電子星球立場。未經(jīng)允許不得轉(zhuǎn)載。授權(quán)事宜與稿件投訴,請聯(lián)系:editor@netbroad.com
覺得內(nèi)容不錯的朋友,別忘了一鍵三連哦!
贊 5
收藏 6
關(guān)注 52
成為作者 賺取收益
全部留言
0/200
  • dy-J4n9lg5Q 2021-05-19 13:28
    比論文強一萬倍
    回復(fù)