ファインチューニング

RAG

RAGの崩壊 知識の衝突がある状況下での推論

RAGシステムや文脈内学習を通じて最新情報を提供しても、大規模言語モデルは必ずしもその新しい知識を多段階の推論チェーンに統合できないことが明らかになった。スイス連邦工科大学ローザンヌ校とストーニーブルック大学の最新研究は、LLMが新しい外部...
AI研究

AI位相転移に注意せよ(一階述語論理)

本研究は、大規模言語モデル(LLM)の論理的推論能力が複雑性の増加に対して線形的に劣化するのではなく、物質の相転移のように振る舞うことを明らかにした画期的な論文である。研究者たちは「論理的複雑性メトリクス(LOCM)」という新しい測定基準を...
AI研究

AIの聖杯、継続学習を徹底解説

本動画は、2026年のAI業界における最重要概念の一つとなる「継続学習」について、その本質と課題を5つのレベルに分けて解説している。現在の大規模言語モデルが抱える根本的な問題として、学習後にモデルが凍結され、過去の会話や経験から学習できない...
AIハルシネーション・幻覚

AIハルシネーションのキルスイッチ(Anthropic他3論文統合解説)

この動画は、2026年1月5日に同時発表された3つの革新的なAI研究論文を統合的に解説するものである。Anthropicによる「AIモデルの内部状態自己認識」、北京大学らによる「ハルシネーションのリアルタイム検出システム」、そして中国研究チ...
AI研究

新発見:AIのインコンテキスト学習が機能する仕組み(解説)

本動画は、Transformerアーキテクチャにおけるインコンテキスト学習(ICL)の動作原理について、最新の数学的証明に基づいて解説するものである。2025年7月にGoogleが発表した研究と、同年12月にオックスフォード大学とサセックス...
NVIDIA・ジェンスンフアン

NVIDIA DGX Spark: 開梱とセットアップガイド

NVIDIA DGX Sparkは、ローカルAI開発と推論のために設計されたAIシステムである。本動画では、開梱から初期セットアップ、SSHによるリモートアクセス、そして実際のモデル推論テストまでを詳細に解説している。GB10 Grace ...
AI研究

ローカルAIモデルで何でも構築する方法

本動画は、ローカルコンピュータ上でAIモデルを実行する方法を包括的に解説する技術ガイドである。クラウドベースのAIサービスへの依存から脱却し、プライバシーを保護しながら無料でAIを活用できる「ローカルAI革命」の到来を告げる内容となっている...
AGI・ASI

超人的な空間AI:ついに実現!

本動画は、現在のAI技術がAGI(汎用人工知能)やASI(人工超知能)にどれだけ近づいているかを、科学的な視点から検証している。特に注目すべきは「微視的空間知性」という概念である。GPT-5やClaude 4.5といった最先端の視覚言語モデ...
LLM・言語モデル

Mistral 3の新モデル4つがリリース!

Mistral AIが5ヶ月ぶりに大規模なモデルリリースを発表した。今回のMistral 3シリーズには、675Bパラメータを持つフラッグシップモデル「Mistral Large 3」と、3B、8B、14Bの3つの小規模な密モデル「Mini...
OpenAI・サムアルトマン

OpenAIが8億人の週間ユーザーに向けて構築する方法:モデル特化とファインチューニング

OpenAIの開発者プラットフォーム責任者シャーマン・ウーが、同社の製品戦略と技術的進化について包括的に語る。毎週8億人が利用するChatGPTという垂直統合型アプリケーションと、広範な開発者エコシステムを支えるAPI事業という水平展開の両...
AI入門

AIモデルをあなたそっくりに話させる方法(ファインチューニング・チュートリアル)

本動画は、大規模言語モデル(LLM)をファインチューニングして、個人の文体や話し方を完全に再現する方法を解説する実践的なチュートリアルである。AIが生成する文章は依然として人間らしさに欠けるという課題に対し、ファインチューニングという手法を...
AI研究

Googleは遂にAI最大の問題を解決したのか?!

現代のAIシステムが抱える最大の課題の一つである「破滅的忘却」に対し、Googleが画期的な解決策を提示した。ニューラルネットワークは新しいタスクを学習する際に以前の知識を失ってしまうという根本的な問題を抱えており、これがAGI実現への大き...
NVIDIA・ジェンスンフアン

NVIDIAがAIスーパーコンピューティングをバックパックサイズに:2025年、あなたにとって何を意味するのか

NVIDIAが2025年10月に発表したDGX Sparkは、わずか3,999ドルで1ペタフロップスの性能を実現し、2016年に12万9千ドルだったDGX-1と同等の計算能力をバックパック一つに収めた革命的なAIコンピューターである。Jen...
LLM・言語モデル

ChatGPTは忘れて、自分専用のLLMをローカルで動かそう

本動画は、ChatGPTやClaudeなどのクラウドベースのAIサービスに依存せず、完全にローカル環境で大規模言語モデル(LLM)を実行する方法を解説している。ローカルAIモデルの主なメリットとして、APIコストやサブスクリプション料金が不...
AI研究

AIの秘密の記憶が発見された

この動画は、AIが情報を記憶し推論を行う際に、従来考えられていた連想記憶ではなく、幾何学的メモリという新しい構造を利用していることを明らかにした最新の研究論文について解説している。Google ResearchとCornell大学の共同研究...
AI入門

AIモデルをファインチューニングする方法、段階的に解説

本動画は、AIモデルのファインチューニングを実際に行う具体的な手順を解説したものである。ファインチューニングとは、既存のベースモデルの重みを調整し、特定のタスクにおける性能を向上させる技術であり、小規模なモデルでも最先端の大規模モデルを上回...
OpenAI・サムアルトマン

モデルの振る舞い:AIスタイルの科学

OpenAIのローレンシアが、AIモデルの「スタイル」がユーザー体験に与える影響について詳しく解説する。スタイルとは、モデルの価値観、特性、細かな表現要素の総体であり、それらが組み合わさってAIの振る舞いを形成する。元司書としての視点から情...
OpenAI・サムアルトマン

オープンモデルを活用した開発

本動画は、OpenAIが2025年8月にリリースした最新のオープンソースモデルシリーズ「GPTOSS」について、その特徴と活用方法を詳細に解説するものである。GPTOSSは12Bと20Bの2つのモデルで構成され、MacBookなどの高性能な...
ロボット

タトゥーロボット

この動画では、開発者が自作のタトゥーロボットを使って自分の足にライブでタトゥーを彫る実演を行う。二本のロボットアームに装着されたタトゥーマシンを使用し、MCPサーバーを通じてロボットを制御している。その後、記録されたデータセットをHuggi...
AI研究

「ChatGPTに無限のローカルメモリが欲しい」- その実現方法

この動画では、ChatGPTやClaudeに無限のローカルメモリを追加できる革新的なツール「MEM agent」について詳しく解説している。MEM agentは40億パラメータのLLMで、メモリ管理に特化してファインチューニングされており、...
AI入門

Gen AI 2025 – 103 – 第1週 – オフィスアワー

この動画は、生成AI 2025コースの第1週目のオフィスアワーを記録したものである。主にハイパーパラメータチューニングの概念と実践について詳しく解説されており、学習率、バッチサイズ、エポック数などの重要なパラメータがモデル性能に与える影響を...
Google・DeepMind・Alphabet

Embedding Gemma:オンデバイスRAGを簡単に実現

Googleが新たにリリースしたEmbedding Gemmaは、オンデバイスでの検索拡張生成(RAG)を大幅に簡易化する軽量埋め込みモデルである。Gemma 3をベースとした3億パラメータのこのモデルは、わずか200メガバイトのVRAMで...
LLM・言語モデル

DeepSeekが復活を示唆!

この動画は、DeepSeekが新たにリリースしたV3.1ベースモデルについて詳しく解説している。このモデルは従来のV3と同様の構成を持ちながら、より多くのデータで学習された可能性があるものの、実際のベンチマーク性能には顕著な向上が見られない...
Google・DeepMind・Alphabet

Gemma 3 270M – Googleの新しい超小型LLMを7分で解説!

Googleが新たにリリースしたGemma 3 270Mは、わずか2億7000万パラメータの超小型LLMである。このモデルはスマートフォンやラズベリーパイなどのエッジデバイスでローカル実行が可能で、Pixel 9 Proでは25回の会話でバ...