循環(huán)神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)區(qū)別 深度學習和普通的機器學習有什么區(qū)別?
深度學習和普通的機器學習有什么區(qū)別?一張圖片顯示了這種關(guān)系。機器學習是人工智能的重要領(lǐng)域之一,而深度學習是機器學習的一個分支。深度學習之所以近年來流行起來,是因為它突破了傳統(tǒng)機器學習無法解決的一些問題
深度學習和普通的機器學習有什么區(qū)別?
一張圖片顯示了這種關(guān)系。機器學習是人工智能的重要領(lǐng)域之一,而深度學習是機器學習的一個分支。深度學習之所以近年來流行起來,是因為它突破了傳統(tǒng)機器學習無法解決的一些問題。
機器學習的意義在于代替人工完成重復性工作,識別出統(tǒng)一的規(guī)則(模式)。但是對于傳統(tǒng)的機器學習來說,特征提取的難度不?。ㄌ卣骺梢允窍袼?、位置、方向等)。特征的準確性將在很大程度上決定大多數(shù)機器學習算法的性能。為了使特征準確,在特征工程部分需要大量的人力來調(diào)整和改進特征。完成這一系列工作的前提是,數(shù)據(jù)集中所包含的信息量是充分的,并且易于識別。如果不滿足這一前提,傳統(tǒng)的機器學習算法將在信息的雜亂中失去其性能。深度學習的應(yīng)用正是基于這個問題。它的深層神經(jīng)網(wǎng)絡(luò)使它能夠在雜波中學習,自動發(fā)現(xiàn)與任務(wù)相關(guān)的特征(可以看作是自發(fā)學習的特征工程),并提取高級特征,從而大大減少了特征工程部分任務(wù)所花費的時間。
另一個明顯的區(qū)別是他們對數(shù)據(jù)集大小的偏好。傳統(tǒng)的機器學習在處理規(guī)則完備的小規(guī)模數(shù)據(jù)時表現(xiàn)出良好的性能,而深度學習則表現(xiàn)不好。隨著數(shù)據(jù)集規(guī)模的不斷擴大,深度學習的效果會逐漸顯現(xiàn)出來,并變得越來越好。對比如下圖所示。
如何將老電影調(diào)整輸出高清并提高畫質(zhì)質(zhì)量?
(去除圖像上的污漬和劃痕)。修復效果取決于原膜保存情況和修復人員的技術(shù)水平。現(xiàn)在你可以看到許多藍光光盤和國外老電影的高清視頻。圖像質(zhì)量優(yōu)良,很大一部分得益于歐美國家對膠片的良好保存。近年來,我國已開始對老電影進行數(shù)字化修復,部分老電影已在中央電視臺和上海東方電視臺播出。坦率地說,修復后的高質(zhì)量電影并不多,這主要與原始電影(尤其是70年代以前的電影)的保存狀況有關(guān)。當然,現(xiàn)在播出的很多所謂高清國產(chǎn)電影根本不是以電影為基礎(chǔ)的。據(jù)估計,這些影片的來源是過去電視臺或制片廠錄制的錄像帶,彌補了這一數(shù)字。當然,維修技術(shù)也很重要。我以前看過貝托魯奇的電影《隨波逐流》,最近還下載了數(shù)碼修復的高清視頻。再看,效果和原來的底片差距太大,顏色太美,底片的紋理都沒了。
深度學習是什么意思?
近年來,隨著信息社會、學習科學和課程改革的發(fā)展,深度學習是一種新的學習形式。
目前,對深度學習的概念有很多答案,很多專家學者的解釋是本質(zhì)意義一致的表述略有不同。
李嘉厚教授認為,深度學習是建立在理解的基礎(chǔ)上的。學習者可以批判性地學習新的想法和事實,將它們?nèi)谌朐械恼J知結(jié)構(gòu),將許多想法聯(lián)系起來,并將現(xiàn)有的知識轉(zhuǎn)移到新的情境中,從而做出決策和解決問題。
郭華教授認為,深度學習是在教師指導下的一個有意義的學習過程,學生圍繞挑戰(zhàn)性的學習主題,全心投入,體驗成功,獲得發(fā)展。它具有批判性理解、有機整合、建設(shè)性反思和遷移應(yīng)用的特點。
深度學習有幾個特點。一是觸動人心的學習。第二,體驗式學習。三是深入認識和實踐創(chuàng)新的研究。
循環(huán)神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)的區(qū)別?
其實一般叫遞歸神經(jīng)網(wǎng)絡(luò),但遞歸是時間遞歸(常用),遞歸是結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)
最重要的是線性代數(shù)和概率論。
現(xiàn)在最流行的機器學習模型,神經(jīng)網(wǎng)絡(luò)基本上有很多向量、矩陣、張量。從激活函數(shù)到損失函數(shù),從反向傳播到梯度下降,都是對這些向量、矩陣和張量的運算和操作。
其他“傳統(tǒng)”機器學習算法也使用大量線性代數(shù)。例如,線性回歸與線性代數(shù)密切相關(guān)。
從代數(shù)的角度來看,協(xié)方差矩陣是對角化的。
尤其是當你讀論文或想更深入的時候,概率論的知識是非常有用的。
它包括邊緣概率、鏈式規(guī)則、期望、貝葉斯推理、最大似然、最大后驗概率、自信息、香農(nóng)熵、KL散度等。
神經(jīng)網(wǎng)絡(luò)非常講究“可微性”,因為可微模型可以用梯度下降法優(yōu)化。梯度下降和導數(shù)是分不開的。所以多元微積分也需要。另外,由于機器學習是以統(tǒng)計方法為基礎(chǔ)的,因此統(tǒng)計知識是必不可少的。但是,大多數(shù)理工科專業(yè)學生都應(yīng)該學過這兩部分內(nèi)容,所以這可能不屬于需要補充的內(nèi)容。