
ドワルケシュ・パテル(原著) , 株式会社クイープ(翻訳)
※1点の税込金額となります。 複数の商品をご購入いただいた場合のお支払金額は、 単品の税込金額の合計額とは異なる場合がございますので、予めご了承ください。
本商品は紙の書籍とPDF版電子書籍のセット商品です。 PDF版の内容は、書籍版と同じです。
ChatGPTの登場以降、世界は一変した。
大量のデータと計算資源を投入すればするほど、AIは予測可能な形で青天井に賢くなっていく。
なぜそんなことが起きるのか?
AIはどのように「思考」しているのか?
そして、AIが人間の知能を超える「AGI(汎用人工知能)」に到達したとき、人類には何が待ち受けているのか?
本書は、OpenAI、Google DeepMind、Anthropic、Metaなど、現代のAI革命を牽引する最前線のCEO、チーフサイエンティスト、研究者たちとの対話を厳選し、テーマ別に編纂したオーラル・ヒストリーである。
AIの内部で起きていることや技術や開発の限界という現在から、サイバーテロの脅威、知能爆発の可能性など、人類より賢いAIをどう扱っていくのかという未来まで、難解な技術的議論をかみ砕きながら、AIのこれまでとこれからを研究者たちの「肉声」で解き明かす。
AIをビジネスに活用する技術者やプロダクト開発者はもちろん、急速に変化するテクノロジーの現在地と行き着く先を知りたいすべての人にとって、必読の一冊となるだろう。
【主な登場人物】
ダリオ・アモデイ(Anthropic 共同創業者兼CEO)
デミス・ハサビス(Google DeepMind 共同創業者兼CEO)
イリヤ・サツケバー(Safe Superintelligence Inc.共同創業者/元OpenAI チーフサイエンティスト)
マーク・ザッカーバーグ(Meta 会長兼CEO)
ほか多数
【目次】
序章 機械学習の基礎知識
第1章 スケーリングの科学:なぜ、たくさんのデータを入れるとうまくいってしまうのか?
第2章 大規模言語モデルの評価:「ブラックボックス」をどう評価するか?
第3章 大規模言語モデルの内側:モデルの内部では何が起こっているのか?
第4章 生成AI技術の取り扱い方:自分より賢いものをどうコントロールするか?
第5章 AGIがもたらす未来:1兆クラスター構想と現実
第6章 AIの社会的影響:いま、世界で何が起ころうとしているのか?
第7章 知能爆発:知性がより優れた知性を生むとしたら?
第8章 AGIはいつ実現するか?
まとめ
ご注文日当日または翌営業日に、ヤマト運輸(宅急便)で発送いたします。
ダウンロードは、紙書籍の発送処理完了後、「発送のご連絡」メールを受信後に可能となります。
メールに記載されたURLよりSEshopにログインのうえ、会員メニューからダウンロードしてください。
序文
序章 機械学習の基礎知識
第1章 スケーリングの科学:なぜ、たくさんのデータを入れるとうまくいってしまうのか?
I. 予測可能性と「モデルの意志」について
II. スケーリングが機能する「シンプルな説明」
III. 推論能力とスケーリング則の限界
IV. 進化生物学から見るAGIへの道筋
V.真の創造性と「探索(Search)」の必要性
VI. コンテキスト長、信頼性、そしてスケールの限界
VII. 「足かせを外す(Unhobbling)」とSystem 2の獲得
VIII. 汎化能力、グラウンディング、そしてスケーリングの限界
IX. 機械学習は「泥臭い進化」である
X. なぜ世界はスケーリングの威力を読み間違えたのか?
XI. エピソード記憶とアーキテクチャの未来
XII. 合成データとデータの壁
XIII. AIの非効率性という最大の謎
第2章 大規模言語モデルの評価:「ブラックボックス」をどう評価するか?
I. 知能とは「チューリングマシンの探索」に過ぎないのか?
II. 暗記か、真の推論か
III. AIの「いびつな知性」
IV. 現在の評価指標(Evals)に欠けているもの
V. AlphaZeroの教訓
VI. ベンチマークへの過学習とテストデータの汚染
VII. AI論文におけるPハッキングと機械学習研究の健全性
VIII. 長期的タスクにおける「信頼性」の壁
IX. 長期的強化学習における能力のジャンプと安全性の監視
第3章 大規模言語モデルの内側:モデルの内部では何が起こっているのか?
I. モデル内部の情報の流れと脳(小脳)とのアナロジー
II. シャーロック・ホームズの推論と「高次な連想」
III. LLMは「局所的な汎化」しかできないのか?
IV. 重ね合わせの謎
V. 辞書学習による解釈可能性へのアプローチ
VI. アライメントの訓練と「神経嘘発見器」
VII. 思考の連鎖とKVキャッシュの「ステガノグラフィ」
VIII. アライメントのメカニズムは、まだ誰も知らない
第4章 生成AI技術の取り扱い方:自分より賢いものをどうコントロールするか?
I. AIは人間の価値観を「理解」しても「共有」するとは限らない
II. RLHFの限界と「スーパーアライメント」の必要性
III. ショゴスとしてのAI:Base64と異質な知性
IV. AIの反乱はなぜ難しいか
V. 言葉と真の価値観の乖離
VI. アライメントのタイムラインと「サイコパス」を見抜くMRI
VII. ワルイージ効果と人間の善良さを抽出する困難
VIII.長期的タスクがもたらすミスアライメントの脅威
IX.自動化されたAI研究者によるアライメント検証
X. 解釈可能性のゴール
XI. 異質な思考への対処:サンドボックスと狭化AIによる監視
XII. オープンソースの脅威
XIII. アライメントの「数学的定義」は不可能なのか
XIV. AIとの共存と道徳的配慮
XV. アライメント研究者への助言と「進化」の非情さ
XVI. アライメントと「子育て」のアナロジーの限界
第5章 AGIがもたらす未来:1兆クラスター構想と現実
I. 1兆ドル規模の計算クラスターと「電力」の壁
II. スケーリングのボトルネックは「魔法」では超えられない
III. GPU不足から「電力インフラの許認可」問題へ
IV. 10GWのデータセンターと「年間1000億ドルの収益」の実現性
V. AGIへの投資は「経済全体」を投じる価値がある
VI. 物理的限界への挑戦と「マルチサイト学習」の可能性
VII. AIインフラと地政学
VIII. 「空母」に匹敵するデータセンターの物理的防衛
IX. 「データの壁」は訪れるのか
X. データ不足は「障害にはならない」という楽観論
第6章 AIの社会的影響:いま、世界で何が起ころうとしているのか?
I. AIによるAI自身の「脳の直接編集(Online Learning)」
II. 科学的発見の限界と「P予想 vs NP予想」の壁
III. AGI到達前の「指数関数的な価値創出」のボーナスタイム
IV. AIバブルか、それとも「史上最大の投資機会」か
V. AIの反乱シナリオ:「サイバー攻撃」による監視システムの無効化
VI. 諜報機関の介入と「湾岸戦争」レベルの圧倒的軍事格差
VII. 生物兵器テロの脅威:AIが「暗黙知」を埋める日
VIII. 人類が「自発的」にAIへ主権を明け渡す未来
第7章 知能爆発:知性がより優れた知性を生むとしたら?
I. すべてを見通す「The Blob(計算の塊)」と調整コストの消滅
II. AI研究の自動化:労働力の倍増がもたらす「収穫逓減の打破」
III. 自己改善のストッパー
IV. 武力乗っ取りの確率と、防御側の優位性
V. 権力の集中を防ぐオープンソース化と、全開発者に適用される「国際規制」の必要性
VI. AIにアライメントを任せることの「悪夢」
VII. AGI完成後の人類の生きがい
VIII. ハードウェアの進化が止まっても知能爆発は起きるか
IX. 価値のロックイン
X. ASI時代の地政学:軍備管理の不安定さと「先制攻撃」の誘惑
XI. AGIは政府主導か、民間主導か
XII. チェック・アンド・バランス
XIII. 悪用と反逆の二重の危機
第8章 AGIはいつ実現するか?
まとめ
有識者たちのプロフィール
付録:エッセイ
苦い教訓/「スケーリング仮説」からの抜)/スケーリングは機能するのか?/Transformerの幅広い成功について
用語集
引用
参考文献