以下是 Week 12 的上課心得整理:

 

重點整理

1. 卷積神經網路(CNN)的基本概念

- 應用範疇:

- CNN 是處理圖像分類和其他空間相關數據的主流方法,例如時間序列數據、文本、聲音等。

- 核心組成:

- 卷積層:提取特徵,強調局部性與參數共享。

- 激活函數(如 ReLU):引入非線性。

- 池化層(如 Max Pooling):減少特徵圖尺寸,增強特徵穩定性。

- 特性:

- 參數共享降低計算成本。

- 對輸入數據的平移不變性更強。

 

2. 經典 CNN 架構

- LeNet(1998):

- 早期架構,用於手寫數字識別,結構為 [CONV-POOL-CONV-POOL-FC-FC]。

- AlexNet(2012):

- 引領深度學習熱潮,透過 GPU 加速實現更深的網路結構。

- 引入數據增強技術如隨機裁剪與翻轉。

- VGG(2014):

- 使用更小的 3x3 卷積核堆疊,模型結構更深(如 VGG16 包含 16 層)。

- GoogLeNet(2014):

- 採用 Inception 模塊,減少參數數量,提高計算效率。

- ResNet(2015):

- 引入殘差塊(Residual Block),解決深層網路的退化問題,達到152層的深度。

 

3. CNN 的最新發展與應用

- 神經風格轉移(Neural Style Transfer):

- 通過卷積層學習風格與內容,實現圖像生成。

- 應用場景:

- 圖像分類(如 CIFAR-10、ImageNet)。

- 自動駕駛中的目標檢測。

- 醫療影像分析。

 

4. 優化與挑戰

- 優勢:

- 高效提取空間特徵,適合處理大規模數據。

- 階層結構允許學習從低級到高級的特徵表示。

- 挑戰:

- 訓練深層網路的高計算成本。

- 超參數調整的複雜性。

 

心得總結

這週課程深入講解了卷積神經網路的基本結構及其應用,特別是各種經典架構如 AlexNet、VGG 和 ResNet,展示了深度學習在圖像處理中的革命性進展。讓我印象深刻的是 ResNet 的殘差連接技術,解決了深層網路中的退化問題。課堂內容強調了 CNN 的實際應用場景,讓我對其應用範圍與潛力有了更全面的認識。我期待能將這些架構運用於實際項目中,進一步體驗深度學習技術的魅力與挑戰。


arrow
arrow
    全站熱搜
    創作者介紹
    創作者 戰昇 的頭像
    戰昇

    戰昇的部落格

    戰昇 發表在 痞客邦 留言(0) 人氣()