読書会(Deep Learning Javaプログラミング 深層学習の理論と実装)第1回議事録

[ 戻る ]


=========================================================================================================
Java読書会BOF 「Deep Learning Javaプログラミング 深層学習の理論と実装」を読む会 第1回
=========================================================================================================

.. csv-table:: 開催概要

  "日時", "2016年12月17日 10:00 - 17:00"
  "場所", "川崎市教育文化会館 第3会議室"
  "出席者(敬称略)", "遠藤、今井、岩室、高橋(智)、高橋(徹)、石黒、金山、青山、井上、吉本、川内、平山、Lijie Qiao、加藤(書記)"

第 1 回は、カバー裏の説明からスタート。

Chapter 0 まえがき等
====================

- 著者も訳者も同じすごい本!

Chapter 1 人工知能とディープラーニングの変遷
============================================

- P.1 Pepper って Softbank だったんだ

  - フランスのアルデバランを買収して作ったもの

1.1 人工知能の変遷
-------------------

- P.10 超平面とは

  - 「n-次元空間における超平面とは、次元が n - 1 の平坦な部分空間をいう」
    https://ja.wikipedia.org/wiki/超平面
  - 多次元の分類をするときにそれを2分する平面

1.2 機械と人間を分けるもの
--------------------------

1.3 人工知能とディープラーニング
--------------------------------

- P.21 シンギュラリティ・・・技術予測が行える臨界点とは?その先は何も予測できないってこと?

  - 30年後にターミネーターができるとか?
  - 人工知能が人間を越えると、人間の生活が後戻りできないほど変容するとのこと
  - 人間には人工知能がコントロールできなくなる世界?
  - マトリックス的な?

- ソースコードの品質向上にディープラーニングは使えるのか?

  - 商用の静的解析ツールで、API呼び出しの慣例に従っているかチェックするルールがある、学習で向上できるかも
  - いいコードは誰がどう評価するのか、GitHub のリアクションとか?


Chapter 2 機械学習アルゴリズムを学ぶ - ディープラーニングへの準備
=================================================================

2.1 実装に際して
-----------------

- P.26 パッケージ名が大文字なのが気になるが我慢

2.2 機械学習における「学習」の必要性
------------------------------------

2.3 教師あり学習と教師なし学習
-------------------------------

- P.30 スーパーでビールとおむつを一緒に買う人が多いやつ

  - いわゆるバスケット分析の有名な例だ

- ディープラーニングの応用例

  - Google の認識 (人や場所の分類など) 結構優秀、Apple も
  - いろんな車からデータ集めてナビの精度あげるとか

- P.31 カーネル関数ってどうやって作るのか?

  - これ次第でなんとでもなってしまいそう
  - 図2-5 的には、中心点からの距離とか?

- P.32 隠れマルコフモデルについて

  - 時系列データの予測に使う
  - 頻度の高いものをくっつけやすい

- P.33 回帰モデルとは?

  - 連続地をとる2つの変数からなる式を想定したモデル (P.48)

2.4 機械学習の流れ
------------------

- K-分割交差検証

  - どうやって分割するのかにも関わる気がする
  - ランダム?日付?人間の判断が入っていいのか悪いのか
  - ランダムに切ってしまうとモデルが切れてしまう場合も

2.5 ニューラルネットワークの理論とアルゴリズム
----------------------------------------------

- P.42 数式解説

  - 式2.5.1 ``T`` はベクトルの転置
  - 式2.5.2 ``∈`` は集合

- P.42 式2.5.3 は ``>`` ではなく ``≧`` ではないか?

  - 式2.5.1 では ``a`` は ``0`` を含むため ``0`` も分類可能 (C1)
  - 式2.5.4 も ``0`` を含んで良いはず (``≧`` で良いはず)

- P.43 数式解説

  - 式 2.5.6 ``η`` イータ (学習率), ``∇`` ナブラ (偏微分、傾き)

- P.44 ``epochs`` は数式の ``k``

- P.45 学習回数到達判定のコードわかりづらい・・・

  - この分野のコードはこういうコードが多い

- P.48 何回も繰り返すと結果変わる?

  - サンプルコードは seed 固定値

- P.49 数式解説

  - 式 2.5.9 ``p(C=1|x)`` は ``X`` における ``C=1`` の条件付き確率
  - 式 2.5.9 ``σ`` はシグマ

- P.50 数式解説

  - 式 2.5.11 ``Π`` パイ (総乗、product)
  - 式 2.5.13 ``ln`` 自然対数
  - 式 2.5.14 ``δ`` デルタ

- P.51 k はステップの数?

  - 2.5.3 と同じ

次回は P.52「2.5.3 多クラスロジスティック回帰」から。


[ 戻る ]