雅虎香港 搜尋

搜尋結果

  1. 2023年9月24日 · 很多搜索引擎都提供有以圖搜圖的功能,但唯獨俄羅斯出品的Yandex搜索引擎的以圖搜圖功能強大無邊,能夠快速定位你需要的作品。. 比如你常常 ...

  2. 2021年1月8日 · 《黃金拍檔》(1984–1988年):為80年代紅極一時的綜藝節目,由張菲、敏然、徐風、羅江與檢場主持,合稱「黃金五寶」;而羅霈穎(當時名為羅 ...

  3. 2020年5月28日 · 我們今天來認識一位對精神分析學有重要貢獻的女性:Karen Horney。 Karen Horney生於19世紀末的德國,在柏林大學取得醫學學位後,因自身經歷憂鬱症而開始對心理學產生興趣。 當時佛洛依德的理論在精神分析領域獨霸, 儘管Karen Horney接受佛洛依德理論的大致走向,但對於部分理論有所質疑,於是和阿德勒(Alfred...

  4. 2020年9月7日 · 第一次觀賞讀劇演出:台南人劇團《仲夏夜之夢》. (《仲夏夜之夢》正式劇名已改為《仲夏夜汁夢》,就裡是以當時的名稱來寫。. 什麼是「讀劇 ...

    • 神經網路(Neural Network)
    • 向前傳播(Forward Propagation)
    • 啟動函數(Activation Function)
    • 損失函數(Loss Function)
    • 向後傳播(Back Propagation)

    首先引用在Machine Learning課程上學習到的概念,將預測市場上的房價訂為假想目標,而我們相信房價必然會與某些特徵(如:房子的坪數、房間的數量、屋齡等等)有著某種「關係」,只要透過監督式訓練模型找出這層關係,未來只需簡單輸入特徵與發現的關係,就能達成預測房價之目標。 若從數學的表達來探討,通常將特徵表示為「x(feature)」,即我們手上握有的資料或是需要蒐集的資料,而這層想要求得的關係,通常稱為權重「w(weight)」,這間房子的實際房價則稱為「y(label)」,每項特徵x都會對實際房價y有著一定的影響或稱某種關係w,在數學上可以表達如公式一。其中b為偏差項,可以理解為當w或x皆為0時y的初始值,或是此直線方程式的截距。 不過需要注意,在神經網路使用的符號會略有不同,在這裡...

    每一層網路裡面的每個節點,都會如圖一所示,把前一層所有的節點視為特徵,並將每個特徵乘上權重後得到z,再經由啟動函數得到a,形成新的節點。而為了區分每一層網路和每個節點間的差異,在符號的使用有一通則,如下: 1. 輸入的x視為第0層節點,又稱輸入層(input layer);最後的輸出視為第L層,又稱輸出層(output layer));而在輸入與輸出層之間,稱為隱藏層l(hidden layer)。 2. 各符號的上標以中括號表示第l層隱藏層,下標表示在第l層下的第n個節點。 3. w和b表示第l層的節點和前一層l–1層的節點之間的關係。 注意w的下標第一個數字代表第l層下的第n個節點,n會等於第l層的節點數量;第二個數字代表前一層的第n節點,而這裡的n會等於l–1層的節點數量。 4. 輸出...

    公式四以矩陣相乘簡化z的計算式後,接下來介紹啟動函數的種類: 1. sigmoid function 值域在1和0之間,最終預測時可加上閾值令大於閾值的輸出為1反之為0,因此通常使用的時機為二元分類問題的輸出層。 2. tanh function CNN較常使用(後續會介紹)。 3. ReLU function 值域在0和z之間,常為隱藏層使用的啟動函數。 4. linear function(identity function) 不改變z的啟動函數,較少使用。 以圖像辨識的應用為例,若利用前文圖三的神經網路來判斷圖片內的動物是否為一隻貓,則x代表一張圖片中每一個子像素的灰階,如果此為32 × 32像素的圖片,則會有32 × 32 × 3(R、G、B三原色)個特徵;如果每個子像素的色彩深度是...

    接下來會使用稱為「損失函數 (cost/loss function)」的函數來評估預測的結果是否準確(公式六)。損失函數會根據預測的目標有不同的公式,目的都是為了合理的評估向前傳播的輸出ŷ與標籤y之間的差距,藉此嘗試不同的w和b,以最小化損失函數,能最小化代價函數的w與b即為我們所尋找的答案。常見的評估方式有線性回歸,以最小平方法計算ŷ和y的距離當作損失函數,而以二元分類的問題為例,常使用「交叉熵 (cross-entropy loss function)」作為損失函數。

    而如何嘗試不同的w和b最小化損失函數,則要運用深度學習的核心演算法「向後傳播(back propagation)」。將向前傳播計算出的輸出當成輸入,利用微積分中的連鎖率以及偏微分,計算損失函數對每一個w和b的偏導數,以圖五的「梯度下降(gradient descent)」來更新w和b的值,算式如公式七所示。其中,α為學習速率,代表每次梯度下降時移動幅度的常數。 另外,在計算各項偏微分時,為了簡化符號會省略偏微分的分子,以圖四的神經網路為例,計算最後一層節點da和dz的偏微分如公式八。 根據公式四,z是w、a和b的函數,利用連鎖率和偏微分對w、a和b取偏微分,如公式九。 完成第三層的向後傳播得到 dw 和 db,以圖五的梯度下降來更新第三層的w及b,接著透過第二層的da計算第二層的dz、dw及...

  5. 2021年5月16日 · Read writing from 尤絲 on Medium. Every day, 尤絲 and thousands of other voices read, write, and share important stories on Medium.

  6. 2018年12月3日 · 一首成功的快歌,可以透過曲詞編唱,煽動聽眾動起來,《跳舞街》絕對做得到,其中填詞的林敏驄功不可抹。相信大家一定記得最後一段:『何月娣 陳步禮 吳縣濟 淑輝…

  1. 其他人也搜尋了