| 
 
	
	
		AI教科書を読むだけでは手が届かないところを掻いてあげたい! 
	
 
	
		| 
		
			矛盾も間違いもあるChatGPTに教わりながら正しくAIプログラムを作る方法
			
		
		 | 
	 
 
	
		
			
				 
			
		 | 
		
			
			
				
					
						
							清水 美樹 著 
						
						
							2023年 9月27日発売  
						
						
							A5判 
						
						
							240ページ
						
						
						
						
						
						
						
						
							定価 ¥2,970(本体 ¥2,700)
						
					
				 | 
			 
			
				| 
					
						
						
						   ISBN978-4-7775-2268-2 C3004 ¥2700E
						
					
				 | 
			 
			
				  | 
			 
				
				
					
						 AIの「うわべに書かれた内容だけでは分からない仕組み」を、ChatGPTにも質問しながら、詳しく学ぶ。
  たとえば、「より高次元の特徴空間に写像する」とは何なのか?!「活性化関数により非線形な特徴を学習できる」「モデルの収束」とは?「ヘッセ行列」とは結局何をしたいのか?!など。
					
				 | 
			 
			
			
			 
		 | 
	 
 
 
| ■ 主な内容 ■ | 
 
	
		■「手書き文字判別」の謎を解く
- AIプログラミング、何から始める?
 
- 手書き数字の画像を判別するPythonコード
 
- 取得した画像データを描画させるコード
 
- 作成したAIモデルで画像を判別
 
- ロジスティック回帰に迫る
 
- 最適化手法に迫る
 
 
■「サポートベクターマシン」とは何かに迫る
- 「SVM」のコードに「SVC」と書かれている件
 
- 「サポートベクターマシン」の最初の一歩が大変だ
 
- いよいよ「サポートベクター」とは?
 
 
■AIの重要概念、「特徴」「次元」「線形」…など
- なぜ「高次元」が必要なのか?
 
- 「線形分離不可能」を「可能」にするには
 
- 「3次元空間に写像して境界面で切る」意味
 
- 「カーネル関数」について、ちょっとでも理解したい
 
 
■最も簡単な深層学習の「構造」
- 手書き数字を深層学習で判定するプログラム
 
- 深層学習実行上の用語
 
- 深層学習で手書き文字判定のために使うもの
 
- 深層学習の「非線形関数」に迫る
 
 
■最も簡単な深層学習の「最適化」
- モデルのコンパイル
 
- 深層学習の「損失関数」
 
- 深層学習の最適化手法
 
- 深層学習の出力層のソフトマックス関数
 
- 最も基本的な深層学習で、それでも気になる用語
 
 
■画像処理に強い、深層学習「畳み込み層」
- 「畳み込み型ニューラルネットワーク」とは
 
- 「フィルタ(カーネル)」について考える
 
- 「2次元配列」の出力をどう処理するのか
 
- 「特徴マップ」をどう評価するのか
 
- 畳み込み型モデルの最後には全結合層がくる
 
 
■自然言語の深層学習
- 「自然言語」の解析手法
 
- 「トランスフォーマー」とは、ザックリと何か
 
- 「セルフアテンション」のキモなる3つのベクトル
 
- 関連性を使ってどうするのか
 
- 今さらながら、トランスフォーマーに流されるデータ
 
- 「トランスフォーマー」はどうやって文を作成するのか
 
 
	 | 
 
 
	
	本書内容に関するご質問は、こちら
	
		 
		本書のサポートページはこちら.
	
	
 
 | 
  | 
  
 |