AI調用基礎微積分-多維空間的偏微分

binary, beautiful wallpaper, 0-3322478.jpg

偏微分在AI中是一個非常重要的工具,像是梯度下降優化在訓練神經網絡等機器學習模型時,常常使用梯度下降等優化算法來調整模型參數以最小化損失函數。偏微分提供了這些算法所需的梯度信息,指示了參數空間中損失函數的下降方向,從而使優化過程更有效率。
還有反向傳播算法,它利用了鏈式法則(Chain rule)計算損失函數對參數的偏導數,從輸出層向輸入層傳遞梯度,以調整模型中的權重和偏差。
最後還有模型評估,偏微分可以用於評估模型的穩定性和響應性。通過計算模型參數的微小變化對輸出的影響,可以評估模型對輸入的敏感性,保證模型的穩定和可靠

說了這麼多,馬上開始吧

我們將f對x的偏導數和f對y的偏導數定義如下

多維空間的偏微分


其中,偏微分有超多種寫法

表示方法


下面是多階導數的表達,要特別注意順序


特別注意,偏微分前後順序更換,結果不變


切平面(tangent plane)與線性近似

切平面方程可以寫成如下


而線性近似在x, y時可以這樣表示


偏微分中的鏈式法則(Chain rule)

如果x, y, z都是t的函數,(dz/dt)表示如下


如果x, y, z是t和s的函數,則可以這樣表示z的偏微分


對於多變數同理,就多做幾次就好了


偏微分中的隱微分

隱微分有個好用的公式如下


那麼對z也一樣


方向導數及梯度向量

方向導數


也等於,其中u = <a, b>, u是單位向量


梯度向量


所以我們知道


本篇文章到此結束,文章整理了許多微調像loss function常用的公式,寫AI模型時,可以直接套進去使用並微調喔

Back to Blog

在〈AI調用基礎微積分-多維空間的偏微分〉中有 1 則留言

  1. 自動引用通知: Pytorch教學2 機器學習的原理與模型建置 - kodo-ai_interaction

留言功能已關閉。

返回頂端