GRATIS

TensorFlow を使った畳み込みニューラルネットワーク

  • money

    Cursos gratis (Auditar)

    question-mark
  • earth

    Japonés

  • folder

    NaN

  • certificate

    Guía de Registro en Coursera

    arrow
Acerca de este curso

  • より大きなデータセットを探求する 
    • 本専門講座の 1 つ目の講座では、TensorFlowを紹介し、そのハイレベルAPIで基本的な画像分類を行い、畳み込みニューラルネットワーク(ConvNet)についても少し学びました。本講座では、ConvNetによる現実世界のデータの使用をより詳しく学び、特に画像分類を行う際にConvNetの性能を高める技法について学びます。1週目では、まず、今まで使用してきたものよりはるかに大きなデータセット、すなわち、画像分類のKaggle チャレンジだった「猫と犬」のデータセットより大きなデータセットを見ていきます。
  • 拡張:過学習を回避する技法 
    • これまでに過学習という用語を何度も耳にしていると思います。過学習とは、簡単に言うと、訓練における特殊化の行き過ぎを表す概念です。つまり、モデルは訓練したものの分類においては非常に優秀でも、見たことがないものの分類はあまり上手にできないということです。モデルをより効果的に汎用化するためには、当然、より幅広い訓練サンプルが必要になります。しかし、いつも入手できるわけではありません。そこで近道となり得るのが画像拡張です。訓練セットに手を加えて、被写体の多様性を高めることができます。今週は、それを詳しく学びます。
  • 転移学習 
    • 自分でモデルを構築するのは素晴らしいことであり、大きな強みです。しかし、これまで見てきたように、手持ちのデータに制限されることがあります。誰でも大量のデータセットやそれらを効果的に訓練するために必要な計算能力を入手できるわけではありません。転移学習は、この解決に役立ちます。大きなデータセットで訓練したモデルがある場合、それを直接利用するか、または学習した特徴を利用して、自分のシナリオに適用することができます。これを転移学習といい、今週はこれについて学びます。
  • 多クラス分類 
    • お疲れ様でした。ConvNetから次のモジュールへ進む前に必要なことがもう一つあります。それは2値分類の先へ進むことです。今まで見てきた例は、「これか、あれか」つまり、馬と人間、猫と犬、という分類でした。2値分類からカテゴリー分類へ進む際には、考慮する必要があるコーディング上の事項がいくつかあります。今週は、それらを見ていきます。