稀疏自編碼器

稀疏自編碼器是一種無監(jiān)督機(jī)器學(xué)習(xí)算法,通過計算自編碼的輸出與原輸入的誤差,不斷調(diào)節(jié)自編碼器的參數(shù),最終訓(xùn)練出模型。自編碼器可以用于壓縮輸入信息,提取有用的輸入特征。

稀疏自編碼器基本信息

中文名 稀疏自編碼器 外文名 Sparse Autoencoder
領(lǐng)????域 深度學(xué)習(xí)

在自動編碼器AutoEncoder的基礎(chǔ)上加上L1的正則限制(L1主要是約束每一層中的節(jié)點(diǎn)中大部分都要為0,只有少數(shù)不為0,這就是Sparse名字的來源),我們就可以得到Sparse AutoEncoder法。

如圖三,其實(shí)就是限制每次得到的表達(dá)code盡量稀疏。因為稀疏的表達(dá)往往比其他的表達(dá)要有效(人腦好像也是這樣的,某個輸入只是刺激某些神經(jīng)元,其他的大部分的神經(jīng)元是受到抑制的)

稀疏自編碼器造價信息

市場價 信息價 詢價
材料名稱 規(guī)格/型號 市場價
(除稅)
工程建議價
(除稅)
行情 品牌 單位 稅率 供應(yīng)商 報價日期
絕對值編碼器 BVS58N-011AVR0NN-0013 查看價格 查看價格

倍加福

13% 上海百策自控技術(shù)有限公司
編碼器 HZ830 查看價格 查看價格

13% 上海鴻真電子有限公司(湖州市廠商期刊)
編碼器 PGM8000 查看價格 查看價格

依愛

13% 蚌埠依愛消防電子有限責(zé)任公司(湖州市廠商期刊)
手持編碼器 TX6930 查看價格 查看價格

13% 深圳市泰和安科技有限公司
電子編碼器 JBF-6481 查看價格 查看價格

13% 青鳥消防股份有限公司(湖州市廠商期刊)
電子編碼器 GST-BMQ-2 查看價格 查看價格

13% 海灣安全技術(shù)有限公司
便攜式編碼器 CODER-F900B 查看價格 查看價格

13% 深圳市泛海三江電子股份有限公司(湖州市廠商期刊)
便攜式編碼器 JF-BM999A 查看價格 查看價格

13% 四川久遠(yuǎn)智能監(jiān)控有限責(zé)任公司(湖州市廠商期刊)
材料名稱 規(guī)格/型號 除稅
信息價
含稅
信息價
行情 品牌 單位 稅率 地區(qū)/時間
電子編碼器 LD128E-100 查看價格 查看價格

云浮市2012年2季度信息價
電子編碼器 LD128E-100 查看價格 查看價格

云浮市2011年1季度信息價
電子編碼器 BMQ-1B 查看價格 查看價格

茂名市2009年7月信息價
電子編碼器 BMQ-1B 查看價格 查看價格

茂名市2009年5月信息價
電子編碼器 BMQ-1B 查看價格 查看價格

茂名市2009年4月信息價
電子編碼器 BMQ-1B 查看價格 查看價格

茂名市2009年3月信息價
電子編碼器 BMQ-1B 查看價格 查看價格

茂名市2008年12月信息價
電子編碼器 BMQ-1B 查看價格 查看價格

茂名市2008年11月信息價
材料名稱 規(guī)格/需求量 報價數(shù) 最新報價
(元)
供應(yīng)商 報價地區(qū) 最新報價時間
編碼器 編碼器|3791個 4 查看價格 江門市松江消防機(jī)電設(shè)備有限公司 廣東  江門市 2015-06-24
編碼器 編碼器|6516只 4 查看價格 廣州市松江消防設(shè)備有限公司 廣東  廣州市 2015-09-29
編碼器 8路標(biāo)清編碼器|5臺 3 查看價格 北京金博林科技有限公司 廣東  肇慶市 2020-09-07
編碼器 DS-6704HW 高清編碼器|1臺 1 查看價格 深圳市金邦偉業(yè)科技有限公司    2014-06-06
編碼器 威視系列 HSDH-D1 編碼器|5020個 4 查看價格 北京市樂維機(jī)電設(shè)備有限公司 北京  北京市 2015-11-13
編碼器 單通道 H.264 編碼器,清晰度≥D1|5臺 1 查看價格 東莞市波特安防器材有限公司 廣東  廣州市 2017-04-28
視頻編碼器 單路視頻編碼器|1臺 1 查看價格 廣州曹易智能科技有限公司    2015-04-08
高清編碼器 單路標(biāo)/高清編碼器,支持單路路標(biāo)/高清直播信號輸入(HDMI及CVBS雙接口輸入).|4臺 1 查看價格 杭州??低暪煞萦邢薰窘谊栟k事處 全國   2020-06-04

對于沒有帶類別標(biāo)簽的數(shù)據(jù),由于為其增加類別標(biāo)記是一個非常麻煩的過程,因此我們希望機(jī)器能夠自己學(xué)習(xí)到樣本中的一些重要特征。通過對隱藏層施加一些限制,能夠使得它在惡劣的環(huán)境下學(xué)習(xí)到能最好表達(dá)樣本的特征,并能有效地對樣本進(jìn)行降維。這種限制可以是對隱藏層稀疏性的限制。

??如果給定一個神經(jīng)網(wǎng)絡(luò),我們假設(shè)其輸出與輸入是相同的,然后訓(xùn)練調(diào)整其參數(shù),得到每一層中的權(quán)重。自然地,我們就得到了輸入的幾種不同表示(每一層代表一種表示),這些表示就是特征。自動編碼器就是一種盡可能復(fù)現(xiàn)輸入信號的神經(jīng)網(wǎng)絡(luò)。為了實(shí)現(xiàn)這種復(fù)現(xiàn),自動編碼器就必須捕捉可以代表輸入數(shù)據(jù)的最重要的因素,就像PCA那樣,找到可以代表原信息的主要成分。

??當(dāng)然,我們還可以繼續(xù)加上一些約束條件得到新的Deep Learning方法,如:如果在AutoEncoder的基礎(chǔ)上加上L1的Regularity限制(L1主要是約束隱含層中的節(jié)點(diǎn)中大部分都要為0,只有少數(shù)不為0,這就是Sparse名字的來源),我們就可以得到Sparse AutoEncoder法。

??之所以要將隱含層稀疏化,是由于,如果隱藏神經(jīng)元的數(shù)量較大(可能比輸入像素的個數(shù)還要多),不稀疏化我們無法得到輸入的壓縮表示。具體來說,如果我們給隱藏神經(jīng)元加入稀疏性限制,那么自編碼神經(jīng)網(wǎng)絡(luò)即使在隱藏神經(jīng)元數(shù)量較多的情況下仍然可以發(fā)現(xiàn)輸入數(shù)據(jù)中一些有趣的結(jié)構(gòu)。

自編碼器最初提出是基于降維的思想,但是當(dāng)隱層節(jié)點(diǎn)比輸入節(jié)點(diǎn)多時,自編碼器就會失去自動學(xué)習(xí)樣本特征的能力,此時就需要對隱層節(jié)點(diǎn)進(jìn)行一定的約束,與降噪自編碼器的出發(fā)點(diǎn)一樣,高維而稀疏的表達(dá)是好的,因此提出對隱層節(jié)點(diǎn)進(jìn)行一些稀疏性的限值。稀疏自編碼器就是在傳統(tǒng)自編碼器的基礎(chǔ)上通過增加一些稀疏性約束得到的。這個稀疏性是針對自編碼器的隱層神經(jīng)元而言的,通過對隱層神經(jīng)元的大部分輸出進(jìn)行抑制使網(wǎng)絡(luò)達(dá)到一個稀疏的效果。

稀疏自編碼器常見問題

  • 編碼器型號

    分辨率1000P/R,開路輸出。

  • 編碼器中的PG是什么?以安川編碼器為例

    PG是脈沖發(fā)生器(Pulse Generator)的縮寫PG的功能的是產(chǎn)生脈沖信號,信號主要含兩方面信息1,檢測轉(zhuǎn)子的磁極位置,并根據(jù)該位置通入電流2,檢測機(jī)械的位置和速度

  • 編碼器的脈沖頻率怎么計算

    每臺編碼器的規(guī)格指標(biāo)中,都有標(biāo)明 分辨率是多少。 單位是 線/圈; 假設(shè)是 1024線/圈,那么就意味著 編碼器每轉(zhuǎn)一圈,就將送出1024個A相和1024個B相的脈沖。 這時就看你的脈...

假設(shè)我們只有一個沒有帶類別標(biāo)簽的訓(xùn)練樣本集合

,其中
。自編碼神經(jīng)網(wǎng)絡(luò)是一種無監(jiān)督學(xué)習(xí)算法,它使用了反向傳播算法,并讓目標(biāo)值等于輸入值,比如
。下圖是一個自編碼神經(jīng)網(wǎng)絡(luò)(圖一)的示例。

自編碼神經(jīng)網(wǎng)絡(luò)嘗試學(xué)習(xí)一個

的函數(shù)。換句話說,它嘗試逼近一個恒等函數(shù),從而使得輸出
接近于輸入
。恒等函數(shù)雖然看上去不太有學(xué)習(xí)的意義,但是當(dāng)我們?yōu)樽跃幋a神經(jīng)網(wǎng)絡(luò)加入某些限制,比如限定隱藏神經(jīng)元的數(shù)量,我們就可以從輸入數(shù)據(jù)中發(fā)現(xiàn)一些有趣的結(jié)構(gòu)。舉例來說,假設(shè)某個自編碼神經(jīng)網(wǎng)絡(luò)的輸入
是一張
圖像(共100個像素)的像素灰度值,于是
,其隱藏層
中有50個隱藏神經(jīng)元。注意,輸出也是100維的
。由于只有50個隱藏神經(jīng)元,我們迫使自編碼神經(jīng)網(wǎng)絡(luò)去學(xué)習(xí)輸入數(shù)據(jù)的'''壓縮'''表示,也就是說,它必須從50維的隱藏神經(jīng)元激活度向量
中'''重構(gòu)'''出100維的像素灰度值輸入
。如果網(wǎng)絡(luò)的輸入數(shù)據(jù)是完全隨機(jī)的,比如每一個輸入
都是一個跟其它特征完全無關(guān)的獨(dú)立同分布高斯隨機(jī)變量,那么這一壓縮表示將會非常難學(xué)習(xí)。但是如果輸入數(shù)據(jù)中隱含著一些特定的結(jié)構(gòu),比如某些輸入特征是彼此相關(guān)的,那么這一算法就可以發(fā)現(xiàn)輸入數(shù)據(jù)中的這些相關(guān)性。事實(shí)上,這一簡單的自編碼神經(jīng)網(wǎng)絡(luò)通??梢詫W(xué)習(xí)出一個跟主元分析(PCA)結(jié)果非常相似的輸入數(shù)據(jù)的低維表示。

我們剛才的論述是基于隱藏神經(jīng)元數(shù)量較小的假設(shè)。但是即使隱藏神經(jīng)元的數(shù)量較大(可能比輸入像素的個數(shù)還要多),我們?nèi)匀煌ㄟ^給自編碼神經(jīng)網(wǎng)絡(luò)施加一些其他的限制條件來發(fā)現(xiàn)輸入數(shù)據(jù)中的結(jié)構(gòu)。具體來說,如果我們給隱藏神經(jīng)元加入稀疏性限制,那么自編碼神經(jīng)網(wǎng)絡(luò)即使在隱藏神經(jīng)元數(shù)量較多的情況下仍然可以發(fā)現(xiàn)輸入數(shù)據(jù)中一些有趣的結(jié)構(gòu)。

稀疏性可以被簡單地解釋如下。如果當(dāng)神經(jīng)元的輸出接近于1的時候我們認(rèn)為它被激活,而輸出接近于0的時候認(rèn)為它被抑制,那么使得神經(jīng)元大部分的時間都是被抑制的限制則被稱作稀疏性限制。這里我們假設(shè)的神經(jīng)元的激活函數(shù)是sigmoid函數(shù)。如果你使用tanh作為激活函數(shù)的話,當(dāng)神經(jīng)元輸出為-1的時候,我們認(rèn)為神經(jīng)元是被抑制的。

注意到

表示隱藏神經(jīng)元
的激活度,但是這一表示方法中并未明確指出哪一個輸入
帶來了這一激活度。所以我們將使用
來表示在給定輸入為
情況下,自編碼神經(jīng)網(wǎng)絡(luò)隱藏神經(jīng)元
的激活度。

進(jìn)一步,讓

表示隱藏神經(jīng)元

的平均活躍度(在訓(xùn)練集上取平均)。我們可以近似的加入一條限制

其中,

是'''稀疏性參數(shù)''',通常是一個接近于0的較小的值(比如
)。換句話說,我們想要讓隱藏神經(jīng)元
的平均活躍度接近0.05。為了滿足這一條件,隱藏神經(jīng)元的活躍度必須接近于0。

為了實(shí)現(xiàn)這一限制,我們將會在我們的優(yōu)化目標(biāo)函數(shù)中加入一個額外的懲罰因子,而這一懲罰因子將懲罰那些

有顯著不同的情況從而使得隱藏神經(jīng)元的平均活躍度保持在較小范圍內(nèi)。懲罰因子的具體形式有很多種合理的選擇,我們將會選擇以下這一種:

這里,

是隱藏層中隱藏神經(jīng)元的數(shù)量,而索引
依次代表隱藏層中的每一個神經(jīng)元。如果你對相對熵(KL divergence)比較熟悉,這一懲罰因子實(shí)際上是基于它的。于是懲罰因子也可以被表示為

其中

是一個以
為均值和一個以
為均值的兩個伯努利隨機(jī)變量之間的相對熵。相對熵是一種標(biāo)準(zhǔn)的用來測量兩個分布之間差異的方法。(如果你沒有見過相對熵,不用擔(dān)心,所有你需要知道的內(nèi)容都會被包含在這份筆記之中。)

這一懲罰因子有如下性質(zhì),當(dāng)

,并且隨著
之間的差異增大而單調(diào)遞增。舉例來說,在圖二中,我們設(shè)定
并且畫出了相對熵值
隨著
變化的變化(圖二)。

我們可以看出,相對熵在

時達(dá)到它的最小值0,而當(dāng)
靠近0或者1的時候,相對熵則變得非常大(其實(shí)是趨向于
)。所以,最小化這一懲罰因子具有使得
靠近
的效果。

我們的總體代價函數(shù)可以表示為

其中

如之前所定義,而
控制稀疏性懲罰因子的權(quán)重。
項則也(間接地)取決于
,因為它是隱藏神經(jīng)元
的平均激活度,而隱藏層神經(jīng)元的激活度取決于
。

為了對相對熵進(jìn)行導(dǎo)數(shù)計算,我們可以使用一個易于實(shí)現(xiàn)的技巧,這只需要在你的程序中稍作改動即可。具體來說,前面在后向傳播算法中計算第二層(

)更新的時候我們已經(jīng)計算了

我們將其換成

就可以了。

有一個需要注意的地方就是我們需要知道

來計算這一項更新。所以在計算任何神經(jīng)元的后向傳播之前,你需要對所有的訓(xùn)練樣本計算一遍前向傳播,從而獲取平均激活度。如果你的訓(xùn)練樣本可以小到被整個存到內(nèi)存之中(對于編程作業(yè)來說,通常如此),你可以方便地在你所有的樣本上計算前向傳播并將得到的激活度存入內(nèi)存并且計算平均激活度 。然后你就可以使用事先計算好的激活度來對所有的訓(xùn)練樣本進(jìn)行后向傳播的計算。如果你的數(shù)據(jù)量太大,無法全部存入內(nèi)存,你就可以掃過你的訓(xùn)練樣本并計算一次前向傳播,然后將獲得的結(jié)果累積起來并計算平均激活度
(當(dāng)某一個前向傳播的結(jié)果中的激活度
被用于計算平均激活度
之后就可以將此結(jié)果刪除)。然后當(dāng)你完成平均激活度
的計算之后,你需要重新對每一個訓(xùn)練樣本做一次前向傳播從而可以對其進(jìn)行后向傳播的計算。對于后一種情況,你對每一個訓(xùn)練樣本需要計算兩次前向傳播,所以在計算上的效率會稍低一些。

證明上面算法能達(dá)到梯度下降效果的完整推導(dǎo)過程不再本教程的范圍之內(nèi)。不過如果你想要使用經(jīng)過以上修改的后向傳播來實(shí)現(xiàn)自編碼神經(jīng)網(wǎng)絡(luò),那么你就會對目標(biāo)函數(shù)

做梯度下降。使用梯度驗證方法,你可以自己來驗證梯度下降算法是否正確。

稀疏性可以被簡單地解釋如下。如果當(dāng)神經(jīng)元的輸出接近于1的時候我們認(rèn)為它被激活,而輸出接近于0的時候認(rèn)為它被抑制,那么使得神經(jīng)元大部分的時間都是被抑制的限制則被稱作稀疏性限制。這里我們假設(shè)的神經(jīng)元的激活函數(shù)是sigmoid函數(shù)。如果你使用tanh作為激活函數(shù)的話,當(dāng)神經(jīng)元輸出為-1的時候,我們認(rèn)為神經(jīng)元是被抑制的。

稀疏自編碼器初始化參數(shù)

input_nodes=8*8//輸入節(jié)點(diǎn)數(shù)
hidden_size=100//隱藏節(jié)點(diǎn)數(shù)
output_nodes=8*8//輸出節(jié)點(diǎn)數(shù)

稀疏自編碼器初始化訓(xùn)練集數(shù)據(jù)

從mat文件中讀取圖像塊,隨機(jī)生成10000個8*8的圖像塊。

defsampleImage():
mat=scipy.io.loadmat('F:/ml/code/IMAGES.mat')
pic=mat['IMAGES']
shape=pic.shape
patchsize=8
numpatches=1000
patches=[]
i=np.random.randint(0,shape[0]-patchsize,numpatches)
j=np.random.randint(0,shape[1]-patchsize,numpatches)
k=np.random.randint(0,shape[2],numpatches)
forlinrange(numpatches):
temp=pic[i[l]:(i[l] patchsize),j[l]:(j[l] patchsize),k[l]]
temp=temp.reshape(patchsize*patchsize)
patches.append(temp)
returnpatches

稀疏自編碼器通過xvaier初始化第一層的權(quán)重值

defxvaier_init(input_size,output_size):
low=-np.sqrt(6.0/(input_nodes output_nodes))
high=-low
returntf.random_uniform((input_size,output_size),low,high,dtype=tf.float32)

稀疏自編碼器計算代價函數(shù)

代價函數(shù)由三部分組成,均方差項,權(quán)重衰減項,以及稀疏因子項。

defcomputecost(w,b,x,w1,b1):
p=0.1
beta=3
lamda=0.00001

hidden_output=tf.sigmoid(tf.matmul(x,w) b)
pj=tf.reduce_mean(hidden_output,0)
sparse_cost=tf.reduce_sum(p*tf.log(p/pj) (1-p)*tf.log((1-p)/(1-pj)))
output=tf.sigmoid(tf.matmul(hidden_output,w1) b1)
regular=lamda*(tf.reduce_sum(w*w) tf.reduce_sum(w1*w1))/2
cross_entropy=tf.reduce_mean(tf.pow(output-x,2))/2 sparse_cost*beta 
regular# regular sparse_cost*beta
returncross_entropy,hidden_output,output

稀疏自編碼器可視化自編碼器

為了使隱藏單元得到最大激勵(隱藏單元需要什么樣的特征輸入),將這些特征輸入顯示出來。

defshow_image(w):
sum=np.sqrt(np.sum(w**2,0))
changedw=w/sum
a,b=changedw.shape
c=np.sqrt(a*b)
d=int(np.sqrt(a))
e=int(c/d)
buf=1
newimage=-np.ones((buf (d buf)*e,buf (d buf)*e))
k=0
foriinrange(e):
forjinrange(e):
maxvalue=np.amax(changedw[:,k])
if(maxvalue<0):
maxvalue=-maxvalue
newimage[(buf i*(d buf)):(buf i*(d buf) d),(buf j*(d buf)):(buf j*(d buf) d)]=
np.reshape(changedw[:,k],(d,d))/maxvalue
k =1

plt.figure("beauty")
plt.imshow(newimage)
plt.axis('off')
plt.show()

稀疏自編碼器主函數(shù)

通過AdamOptimizer下降誤差,調(diào)節(jié)參數(shù)。

defmain():
w=tf.Variable(xvaier_init(input_nodes,hidden_size))
b=tf.Variable(tf.truncated_normal([hidden_size],0.1))
x=tf.placeholder(tf.float32,shape=[None,input_nodes])
w1=tf.Variable(tf.truncated_normal([hidden_size,input_nodes],-0.1,0.1))
b1=tf.Variable(tf.truncated_normal([output_nodes],0.1))
cost,hidden_output,output=computecost(w,b,x,w1,b1)
train_step=tf.train.AdamOptimizer().minimize(cost)
train_x=sampleImage()
sess=tf.Session()
sess.run(tf.global_variables_initializer())

foriinrange(100000):
_,hidden_output_,output_,cost_,w_=sess.run([train_step,hidden_output,output,cost,w],
feed_dict={x:train_x})
ifi00==0:
print(hidden_output_)
print(output_)
print(cost_)
np.save("weights1.npy",w_)
show_image(w_)
2100433B

稀疏自編碼器文獻(xiàn)

編碼器基礎(chǔ)入門 編碼器基礎(chǔ)入門

格式:pdf

大?。?span id="yuqceqc" class="single-tag-height">1.9MB

頁數(shù): 23頁

評分: 4.7

編碼器基礎(chǔ)入門

立即下載
電子編碼器的使用 電子編碼器的使用

格式:pdf

大小:1.9MB

頁數(shù): 10頁

評分: 4.6

電子編碼器的使用

立即下載

文| Aaqilb Saeed 譯| 翟向洋

包括完整代碼和數(shù)據(jù)集的 ipython 筆記本可以從閱讀原文鏈接內(nèi)獲得。

在本教程中,我們會把去噪自編碼應(yīng)用在購物籃(market basket)數(shù)據(jù)的協(xié)同濾波上。學(xué)習(xí)模型將根據(jù)用戶購物籃中的商品來推薦相近的商品。

本教程使用的是 groceries 數(shù)據(jù)集,它包括 9835 次交易(即在購物籃中被一起購買的商品條目)。我們將數(shù)據(jù)進(jìn)行訓(xùn)練、測試和驗證。圖 1 描述了原始數(shù)據(jù)集,我們需要處理并將其轉(zhuǎn)換為對輸入模型可用的格式。為此,每一次交易都將被表示為一個二進(jìn)制向量,其中 1 表示某個商品在購物籃,否則為 0 。讓我們首先讀取該數(shù)據(jù)集并定義幾個輔助函數(shù),找出單一的商品條目,將他們轉(zhuǎn)換成 One-hot encoded(一位有效編碼的)形式,并從二進(jìn)制向量轉(zhuǎn)換為商品條目。此外,圖 2 提供了 10 項在數(shù)據(jù)集中最頻繁出現(xiàn)的商品條目。

圖一: 購物籃數(shù)據(jù)

圖二:數(shù)據(jù)集中出現(xiàn)最多的貨品

自編碼器模型試著(learn)重建它自己的輸入。當(dāng)這樣做的時候,它學(xué)習(xí)(learn)數(shù)據(jù)的突出表示。因此,它也用來實(shí)現(xiàn)降維的目的。該模型由兩個組件組成:一個編碼器和一個解碼器。編碼器映射輸入-->,解碼器從降維重新產(chǎn)生輸入,即映射-->。輸入中的噪聲被引入(例如通過Dropout)到訓(xùn)練集,避免了學(xué)習(xí)一個恒等函數(shù),由此得名為自編碼降噪。在我們的例子中,在模型訓(xùn)練期間,一些缺少某些物品的嘈雜或損壞的購物籃數(shù)據(jù)將被用作輸入。在測試期間,一位有效編碼的購物籃的商品條目將被饋入模型以獲得商品條目預(yù)測。然后從輸出,我們必須選擇概率比一些閾值更大的商品條目(此例,如果p>=0.1,則為1,否則為0),以轉(zhuǎn)換回一位有效編碼向量。最后,在二進(jìn)制向量中帶有1的商品條目將被推薦給用戶。

現(xiàn)在讓我們定義一個4層自編碼降噪模型(例如,4層編碼器和4層解碼器)。軟標(biāo)記激活函數(shù)(the soft sign activation function)用在前三層的編碼器和解碼器,而sigmoid用在第四層。二進(jìn)制交叉熵被用作使用隨機(jī)梯度下降法的變體(通常稱為Adam)來最小化的損失函數(shù)。模型架構(gòu)如圖2所示,可以看出輸入維數(shù)為169(即數(shù)據(jù)集中單一商品條目的數(shù)量)。同樣,神經(jīng)元的數(shù)量在第一、第二、第三和第四層分別是128、64、32和16。在輸入層以0.6的概率引入流失(dropout)(即隨機(jī)流失40%的輸入)。此外,編碼器的權(quán)重使用頻率為0.00001的則正則化。

圖三:降噪模型的結(jié)構(gòu)

這里是所有的代碼:我們需要定義我們的模型。以下提供的代碼會訓(xùn)練/評估自編碼器并計算ROC、AUC的分?jǐn)?shù)。

以下是該模型提供的一些關(guān)于測試集的推薦結(jié)果:

購物車中的商品條目:火腿、草藥、洋蔥、起泡酒

推薦的商品條目:瓶裝水,其他蔬菜,面包(卷),根蔬菜,購物袋,蘇打水,熱帶水果,全脂牛奶,酸奶

購物車中的商品條目:餐巾,香腸,白葡萄酒

推薦的商品條目:其他蔬菜,面包(卷),蘇打水,全脂牛奶,酸奶

購物車中的商品條目:磨砂清潔劑,糖果,雞肉,清潔劑,根蔬菜,香腸,熱帶水果,全脂牛奶,酸奶

推薦的商品條目:牛肉,瓶裝啤酒,瓶裝水,棕色面包,黃油,罐裝啤酒,柑橘類水果,咖啡,凝乳,國產(chǎn)雞蛋,法蘭克福香腸,水果/蔬菜汁,人造黃油,報紙,其他蔬菜,糕點(diǎn),水果,豬肉,卷餅/饅頭,根蔬菜,香腸,購物袋,蘇打水,熱帶水果,鞭打/酸奶油,酸奶

-END-

譯者 | 翟向洋

北京理工大學(xué)研究生一枚,吃瓜群眾,熱愛學(xué)習(xí)。

后臺回復(fù) “志愿者”

了解如何加入我們

譯碼器是組合邏輯電路的一個重要的器件,其可以分為:變量譯碼和顯示譯碼兩類。

變量譯碼:一般是一種較少輸入變?yōu)檩^多輸出的器件,一般分為2n譯碼和8421BCD碼譯碼兩類。

顯示譯碼:主要解決二進(jìn)制數(shù)顯示成對應(yīng)的十、或十六進(jìn)制數(shù)的轉(zhuǎn)換功能,一般其可分為驅(qū)動LED和驅(qū)動LCD兩類。

譯碼是編碼的逆過程,在編碼時,每一種二進(jìn)制代碼,都賦予了特定的含義,即都表示了一個確定的信號或者對象。把代碼狀態(tài)的特定含義"翻譯"出來的過程叫做譯碼,實(shí)現(xiàn)譯碼操作的電路稱為譯碼器?;蛘哒f,譯碼器是可以將輸入二進(jìn)制代碼的狀態(tài)翻譯成輸出信號,以表示其原來含義的電路。

根據(jù)需要,輸出信號可以是脈沖,也可以是高電平或者低電平。

譯碼器的種類很多,但它們的工作原理和分析設(shè)計方法大同小異,其中二進(jìn)制譯碼器、二-十進(jìn)制譯碼器和顯示譯碼器是三種最典型,使用十分廣泛的譯碼電路。

二進(jìn)制碼譯碼器,也稱最小項譯碼器,N中取一譯碼器,最小項譯碼器一般是將二進(jìn)制碼譯為十進(jìn)制碼;

代碼轉(zhuǎn)換譯碼器,是從一種編碼轉(zhuǎn)換為另一種編碼;

顯示譯碼器,一般是將一種編碼譯成十進(jìn)制碼或特定的編碼,并通過顯示器件將譯碼器的狀態(tài)顯示出來。

稀疏自編碼器相關(guān)推薦
  • 相關(guān)百科
  • 相關(guān)知識
  • 相關(guān)專欄

最新詞條

安徽省政采項目管理咨詢有限公司 數(shù)字景楓科技發(fā)展(南京)有限公司 懷化市人民政府電子政務(wù)管理辦公室 河北省高速公路京德臨時籌建處 中石化華東石油工程有限公司工程技術(shù)分公司 手持無線POS機(jī) 廣東合正采購招標(biāo)有限公司 上海城建信息科技有限公司 甘肅鑫禾國際招標(biāo)有限公司 燒結(jié)金屬材料 齒輪計量泵 廣州采陽招標(biāo)代理有限公司河源分公司 高鋁碳化硅磚 博洛尼智能科技(青島)有限公司 燒結(jié)剛玉磚 深圳市東海國際招標(biāo)有限公司 搭建香蕉育苗大棚 SF計量單位 福建省中億通招標(biāo)咨詢有限公司 泛海三江 威海鼠尾草 Excel 數(shù)據(jù)處理與分析應(yīng)用大全 廣東國咨招標(biāo)有限公司 甘肅中泰博瑞工程項目管理咨詢有限公司 山東創(chuàng)盈項目管理有限公司 拆邊機(jī) 當(dāng)代建筑大師 廣西北纜電纜有限公司 大山檳榔 上海地鐵維護(hù)保障有限公司通號分公司 舌花雛菊 甘肅中維國際招標(biāo)有限公司 華潤燃?xì)猓ㄉ虾#┯邢薰? 湖北鑫宇陽光工程咨詢有限公司 GB8163標(biāo)準(zhǔn)無縫鋼管 中國石油煉化工程建設(shè)項目部 韶關(guān)市優(yōu)采招標(biāo)代理有限公司 莎草目 建設(shè)部關(guān)于開展城市規(guī)劃動態(tài)監(jiān)測工作的通知 電梯平層準(zhǔn)確度 廣州利好來電氣有限公司 四川中澤盛世招標(biāo)代理有限公司