以下是 Week 12 的上課心得整理:
重點整理
1. 卷積神經網路(CNN)的基本概念
- 應用範疇:
- CNN 是處理圖像分類和其他空間相關數據的主流方法,例如時間序列數據、文本、聲音等。
- 核心組成:
- 卷積層:提取特徵,強調局部性與參數共享。
- 激活函數(如 ReLU):引入非線性。
- 池化層(如 Max Pooling):減少特徵圖尺寸,增強特徵穩定性。
- 特性:
- 參數共享降低計算成本。
- 對輸入數據的平移不變性更強。
2. 經典 CNN 架構
- LeNet(1998):
- 早期架構,用於手寫數字識別,結構為 [CONV-POOL-CONV-POOL-FC-FC]。
- AlexNet(2012):
- 引領深度學習熱潮,透過 GPU 加速實現更深的網路結構。
- 引入數據增強技術如隨機裁剪與翻轉。
- VGG(2014):
- 使用更小的 3x3 卷積核堆疊,模型結構更深(如 VGG16 包含 16 層)。
- GoogLeNet(2014):
- 採用 Inception 模塊,減少參數數量,提高計算效率。
- ResNet(2015):
- 引入殘差塊(Residual Block),解決深層網路的退化問題,達到152層的深度。
3. CNN 的最新發展與應用
- 神經風格轉移(Neural Style Transfer):
- 通過卷積層學習風格與內容,實現圖像生成。
- 應用場景:
- 圖像分類(如 CIFAR-10、ImageNet)。
- 自動駕駛中的目標檢測。
- 醫療影像分析。
4. 優化與挑戰
- 優勢:
- 高效提取空間特徵,適合處理大規模數據。
- 階層結構允許學習從低級到高級的特徵表示。
- 挑戰:
- 訓練深層網路的高計算成本。
- 超參數調整的複雜性。
心得總結
這週課程深入講解了卷積神經網路的基本結構及其應用,特別是各種經典架構如 AlexNet、VGG 和 ResNet,展示了深度學習在圖像處理中的革命性進展。讓我印象深刻的是 ResNet 的殘差連接技術,解決了深層網路中的退化問題。課堂內容強調了 CNN 的實際應用場景,讓我對其應用範圍與潛力有了更全面的認識。我期待能將這些架構運用於實際項目中,進一步體驗深度學習技術的魅力與挑戰。
留言列表