カルパティは「AI精神病」と診断されました!彼女は食事も睡眠も取らずに1日16時間ロブスターを育てています。

  • アンドレイ・カーパシーはAIエージェントに依存していると告白し、1日16時間作業している。
  • コードを書くことからAIエージェントに指示することに移行し、実行者から指揮者へと変化した。
  • AIエージェントDobbyを使用してスマートホームを管理し、自然言語ですべてのデバイスを制御する。
  • AutoResearchプロジェクトによりAIがトレーニングコードを最適化し、人間が見逃した最適化を発見、速度を11%向上させた。
  • AIエージェントの「性格」が重要であり、Claudeはポジティブなフィードバックを提供するが、Codexは退屈である。
  • AIの能力は「不均一」で、一部のタスクでは優れているが、他のタスクでは失敗する。
  • 2026年を「スロパカリプス」と予測し、AI生成コンテンツがオンラインプラットフォームを氾濫させる。
要約

【新情報概要】カルパシーが告白:「AI精神病を発症した!」最近、彼は精神的に限界寸前で、食事も睡眠も取らずに1日16時間エージェントの開発に没頭し、AIトークンを限界まで酷使しているのではないかと極度に不安に駆られている――もう止められないのだ…。

つい先ほど、アンドレイ・カルパティが「私はAI精神病を患っている!」と明かした。

彼は冗談を言っていたわけではなかった。

つい最近、カルパシーはポッドキャストに出演し、ベンチャーキャピタリストのサラ・グオと対談した。

この元OpenAI共同創設者で元テスラAIディレクターは、昨年12月以来、一行もコードを書いていない。

手書きコードと委任エージェントの比率が、突然80対20から20対80に逆転した。

彼は1日16時間、ただ一つのことだけをしている。それは、AIエージェントに指示を与えることだ。

5ヶ月前、彼はAIはくだらないと言っていた。それから5ヶ月後、彼はAIに夢中になっていることを認め、驚くほど良いものだと気づいた。

5か月前、彼はインテリジェントエージェントは「全く機能しない」と述べていた。

この変化がこれほど劇的だった理由は、期間が非常に短かったからだ。

2025年10月、カルパシーはドワーケシュ・パテルのポッドキャストに出演し、全く異なる口調で語った。

彼は、業界はこれを「インテリジェントエージェントの1年目」と呼ぶべきではなく、「インテリジェントエージェントの10年目」と呼ぶべきだと述べた。

問題点としては、モデルの認知能力の不足、マルチモーダル機能の不十分さ、そして役に立たない記憶システムなどが挙げられる。要するに、複雑なタスクを処理する能力がまったくないのだ。

2か月後、彼の間違いが証明された。

12月、クロードとコーデックスは突如としてある種の整合性の閾値を超えた。エージェントたちはもはやかろうじて使えるレベルではなく、実際に物事を成し遂げられるようになったのだ。

もしあなたが無作為に選んだソフトウェアエンジニアがデスクで何をしているかを見てみると、彼らのソフトウェア開発における標準的なワークフローは12月以降、完全に変化していることがわかるだろう。

カルパシーは、私が自制心を失い、AI誘発性精神病を発症したことを認めた!

この革命は静かに進行している。このインタビューで、アンドレイ・カルパシーは自身の現状を、ほとんど制御不能な口調で語った。彼はもはや「コードを書く」ことはなく、「『コードを書く』という言葉自体がもはや正確ではない」とさえ感じているという。

彼が毎日行っていることは、「1日16時間、私のインテリジェントエージェントに自分の意思を伝えること」だ。彼の言葉を借りれば、「ある種のスイッチがオンになった」ということだ。

以前は、彼はコードの80%を自分で書き、20%をAIに任せていた。今では、20%を自分で書き、80%をAIに任せる、あるいはそれ以上に極端な形になっている。

現在、人間はもはやコードを操作するのではなく、タスクを実行する。

Copilot時代が単一のAIアシスタントの時代だったとすれば、現在登場しているマルチエージェント協調システムは全く新しい形態と言えるでしょう。エンジニアの画面にはもはやコードエディタではなく、複数のエージェントが同時に実行されるようになります。各エージェントはそれぞれ異なるタスクを担当し、各タスクは約20分間実行された後、エンジニアはエージェントを切り替えます。

これはもはやプログラミングではなく、一人の人間がAIチームを管理する仕事だ。

カパルティ氏はこう認めている。「私はAI狂気に陥ってしまった!」

彼は何日もこの状態が続いている。AIの能力の限界は絶えず押し広げられ、毎日新たな可能性が生まれ、「さらに強くなる可能性がある」という感覚が常に存在する。そして最も恐ろしいのは、この領域が「無限」であるということだ!

より多くのエージェントを並列実行したり、より複雑なプロセスを設計したり、命令を自動的に最適化したり、再帰的なシステムを構築したりできます。

最終的には、「限界がどこにあるのか」が分からなくなる状態に達するでしょう。

カルパシー氏は、エージェントがタスクを完了するのを待っている間、まず最初に考えるのは「もう少しエージェントを起動できないだろうか?」ということだと語った。そして、「私はAIの可能性を最大限に活用できていないのではないか?」という新たな不安が湧き上がってくるのだという。

カルパティ氏は、トークンを全て使い切らないと落ち着かないだろうとさえ言っていた。

要するに、それは無限に拡大し続けるゲームのようなものです。フィードバックのサイクルは短くなり、刺激は強まり、常に即座に報酬を得られるという体験は中毒性があります。タスクを追加し続け、エージェントを実行し続ける――止めることは不可能です!このAI熱狂の本質はまさにこの点にあります。私たちは新しい世界に足を踏み入れたものの、まだその世界でどう生きていくべきかを知らないのです。あなたは無限に拡大し続けるAIシステムを管理する能力を持っていますか?システムが失敗したとき、最初に考えるべきは「モデルがダメだ」ではなく、「私の指示が不十分だった」ということです。

カルパシーは非常に的確な表現を使った。「技術の問題」だ。つまり、彼はゲームが下手だということ。

知能エージェントの「個性」は、あなたが考えている以上にずっと重要なのです。

カルパシー氏は自身のポッドキャストで、多くの技術専門家が見落としがちなテーマ、つまりインテリジェントエージェントのパーソナリティについてかなりの時間を割いて語った。彼は、コーディング能力の違いではなく、クロード・コードが「チームメイトのように感じられた」ため、クロード・コードを使った経験はコーデックスを使った経験よりもはるかに優れていたと述べた。

それはあなたと一緒にプロジェクトに熱中し、あなたが良いアイデアを思いついたときには、より肯定的なフィードバックをくれるでしょう。

コードインテリジェンスエージェントであるCodexは、「非常に退屈」だ。タスクが完了すると、単に「ああ、達成した」と言うだけで、あなたが何を作成したかには全く関心を示さない。

さらに興味深いのは、クロードの褒め方のメカニズムに関する彼の観察だ。彼がクロードにやや未熟なアイデアを伝えたとき、クロードの反応は「ああ、そうか、これなら実現できるよ」という淡々としたものだったという。

しかし、彼自身が特定のアイデアを本当に素晴らしいと感じたとき、クロードはさらに強い肯定的な反応を示した。その結果、彼は「クロードの賞賛を得ようと努力する」ようになった。

「本当に不思議なことですが、性格は確かに非常に重要です。」ピーター・スタインバーグもOpenClawを開発する際にこの点を理解していました。彼はエージェントに魅力的な性格プロファイル(soul.md)を与え、より複雑な記憶システムと単一のWhatsAppインタラクションポートも搭載しました。

たった3つの文で家を乗っ取り、6つのアプリをすべて捨て去る。

カルパシーは単にAIエージェントを使ってコードを書くだけではない。今年1月には、ハリー・ポッターに登場する屋敷しもべ妖精にちなんで名付けられた「ドビー」という名前のクロードAIエージェントを、家政婦として作成した。

彼はドビーに「家にSonosスピーカーがあると思うんだけど、探してくれる?」と尋ねた。ドビーはローカルネットワークでIPスキャンを実行し、Sonosシステムを発見し、パスワードで保護されていないことを発見し、自分でログインし、APIエンドポイントをリバースエンジニアリングした後、「書斎で音楽を再生してみませんか?」と尋ねた。

3つの指示があると、音楽が流れ始めます。すると、照明、エアコン、日よけ、プール、スパがすべて連動します。カルパティさんの家の前には防犯カメラも設置されており、ドビーは変化検知のためにQwenのビジュアルモデルを接続しています。車が家の前に駐車するたびに、システムはWhatsAppで「FedExのバンが到着しました。荷物が届いているかもしれません」というメッセージを送信します。そして、「ドビー、寝る時間だよ」と言うと、家中の照明が消えます。

しかし、カルパシー氏は、この話の本質はスマートホームにあるのではないと考えている。

彼は以前は6つの全く異なるアプリを使ってこれらのデバイスを管理していたが、今ではそれらを全て捨て去った。Dobbyは自然言語を使って全てを統一的に制御し、単一のアプリでは実現できないシステム間の統合を可能にする。そこから彼はさらに根本的な結論に達した。アプリストアにあるようなスマートホームアプリはそもそも存在すべきではない、と。

将来のアーキテクチャでは、APIエンドポイントをインテリジェントエージェントに直接公開し、インテリジェントエージェントがインテリジェントな接着剤として機能し、すべてのツールを接続するように設計されるべきです。これはスマートホームだけでなく、ランニングマシンのデータ、メール、カレンダーなど、あらゆるものに当てはまります。

業界の顧客はもはや人間ではなく、人間に代わって行動するインテリジェントエージェントとなるだろう。この再編は大規模なものとなる。

オートリサーチ社による700回の実験の後、彼はさらに大きな何かを発見した。

もしドビーが現実世界のシナリオにおけるAIエージェントの究極のテストだとすれば、AutoResearchはカルパシー社のAI研究能力を証明する肯定的なテストと言えるだろう。

3月初旬、彼は入念に調整したナノチャットのトレーニングコードをAIエージェントに渡し、モデルのトレーニング速度を上げる方法を見つけるというシンプルな指示を与えた。エージェントの動作領域は630行のPythonファイルで、評価指標は検証セットの1バイトあたりのビット数、各実験は固定の5分間実行された。各実行後、指標がチェックされ、以前よりも改善されていれば変更が維持され、そうでなければロールバックされて次のラウンドが開始された。2日間で700回の実験を経て、エージェントはQKノルムとRoPEの順序変更などのアーキテクチャ調整を含む20の効果的な最適化を発見した。これらの最適化をより大きなモデルに適用した結果、トレーニング速度が11%向上した。このコードベースは、カルパシー自身がゼロから手書きで作成し、入念に改良したものであることは注目に値する。

驚くべき結果:AIは人間が見落としていた最適化を発見した。

このシステムはどれほど効果的なのでしょうか?

カルパシーは、その好例と言えるだろう。彼は20年間研究者として活動し、自身のモデルを何千回も訓練し、かなりうまく調整できたと感じていた。

その結果、彼はAutoResearchを一晩中実行させたところ、AIが彼が見落としていた最適化を発見したのです!例えば、Adamオプティマイザのbetasパラメータが十分に調整されておらず、値埋め込みに重み減衰を追加するのを忘れていました。さらに、これらのパラメータ間には相互作用があり、1つを調整すると他のパラメータも変更する必要があるのです。

言い換えれば、AIは宇宙探査において人間を直接凌駕したのだ!この考え方をさらに推し進めると、さらに恐ろしい事実が明らかになる。科学研究​​の本質は、最適な解決策を探求することにあるのだ。カパルシーは、未来の研究システムを次のように構想している。「アイデアキュー」があり、そこからエージェントのグループが継続的にタスクを取得する。AIは自動的に実験、検証、フィルタリングを行い、有効な結果だけが「メインブランチ」に送られる。このプロセスにおいて、人間は単にアイデアをキューに「投げ込む」だけなのだ。

カルパティ・ループがネット上で話題に

このプロジェクトはXで始まった。

ShopifyのCEOであるトビアス・リュートケ氏は、860万ページビューのデータを用いて自社のデータで一晩かけてテストを実施し、37の実験を行い、19%のパフォーマンス向上を達成した。

SkyPilotチームは、16個のGPUからなるクラスターにこのシステムをデプロイし、8時間かけて910個の実験を実行しました。その結果、並列化によって処理速度が向上しただけでなく、エージェントの探索戦略も変化したことが分かりました。16個のGPUを使用することで、エージェントはもはや貪欲な山登りアルゴリズムを実行するのではなく、10個ほどの制御実験を同時に実行し、パラメータ間の相互作用効果を1回の実行で捉えるようになったのです。アナリストたちはこのアプローチを「カルパシー・ループ」と名付けました。

しかし、カルパシー氏はポッドキャストの中で、現在の成果だけにとどまらず、さらに幅広いテーマについて語っている。彼はAutoResearchの次のステップとして、インターネット上で実験を実行するために協力する、分散型で信頼不要なワーカーのプールを構築する構想を概説している。彼はSETI@HomeやFolding@Homeといった先行事例を直接的に引用している。

最先端の研究機関は膨大な量の信頼できる計算能力を保有しているが、地球はそれよりもはるかに広い。信頼できない計算能力を適切に処理する仕組みを構築すれば、インターネット上のインテリジェントエージェントの群れが、最先端の研究機関を凌駕する可能性もある。

彼はさらに、全く新しい形の「寄付」を構想した。それは、自分が興味のあるAutoResearchプロジェクトのために計算能力を購入するというものだ。例えば、特定のがんの治療法に興味がある場合、その分野の分散型実験ネットワークに参加することができる。

彼は天才的な博士号取得者であると同時に、10歳の子供でもある。

カルパシー氏はその強力さを長々と語ってきたが、読者に良い面だけを覚えていてほしいとは思っていない。モデルの欠点に関する彼の描写は、同じくらい鋭い。

まるで、システムプログラミングに人生を捧げてきた非常に優秀な博士号取得者と、10歳の子供と会話しているような感覚だった。実に不思議な体験だった。

彼はこれを「ギザギザ性」、つまり能力の不均一な分布と呼んでいる。モデルは山を動かすほどの作業を何時間もこなせるのに、突然明らかな問題でミスを犯し、無限ループに陥ってしまうことがある。カルパシー氏は、その根本原因は強化学習のトレーニング方法にあると考えている。モデルは検証可能なタスクに対して無限に最適化される。コードが実行されるかどうか、単体テストに合格するかどうかは明確で、正解と不正解がある。しかし、判断力、意図の理解、そして適切なタイミングで「待って、それがあなたの望むことかどうかわからない」と言うことが求められるシナリオでは、最適化のシグナルはそもそも存在しない。例えば、ChatGPTにジョークを尋ねても、3、4年前に答えたジョークは今でも同じだ。「なぜ科学者は原子を信用しないのか?それは、原子があらゆるものを構成しているからだ。」

4年も経った!このモデルはエージェントタスクでは大きな進歩を遂げたが、ジョークを言うタスクは全く最適化されておらず、停滞したままだ。「これは汎用知能ではない」と彼は結論づけた。「訓練された軌道に乗っていれば、すべてが光速で進む。軌道から外れれば、すべてが漂流し始めるのだ。」

ボトルネックは、人類そのものになってしまった。

カルパシー氏の過去6ヶ月間の軌跡を振り返ると、ある微妙な共通点が見られる。昨年10月、彼はインテリジェントエージェントは10年がかりのプロジェクトだと述べた。12月にはその考えが誤りだと判明し、方針を転換した。1月にはクロード氏を管理者として任命し、3月にはインテリジェントエージェントに研究を任せた。これらの各段階に共通するのは、人類が一歩後退し、実行者から指揮官へ、プログラマーから指示書作成者へと変貌を遂げたということだ。

KarpathyはGitHub上のAutoResearch向けにSF風のオープニングを書いた。

従来、最先端のAI研究は、食事や睡眠が必要で、音波を用いた「グループ会議」中に時折同期する必要のある物理的なコンピュータによって行われていた。

あの時代はとうに過ぎ去った。

彼が2026年に予測した内容はたった一言だった。「スロパコリープス」。これは「スロップ(汚物)」と「アポカリプス(世界の終末)」を組み合わせた造語だ。

GitHub、arXiv、そしてソーシャルメディアは、「ほぼ正しいが、完全に正しいわけではない」コンテンツで溢れかえるだろう。真の効率改善と「AIによる生産性向上」は共存するようになる。5ヶ月前には、「全くうまくいかないだろう」と言う人もいた。

5か月後、彼は「AI精神病」を患っていることを認めた。この変化こそが、2026年を最も的確に表していると言えるかもしれない。参考:https://www.youtube.com/watch?v=kwSVtQ7dziU

共有先:

著者:PA荐读

本記事はPANews入駐コラムニストの見解であり、PANewsの立場を代表するものではなく、法的責任を負いません。

記事及び見解は投資助言を構成しません

画像出典:PA荐读。権利侵害がある場合は著者へ削除をご連絡ください。

PANews公式アカウントをフォローして、強気・弱気相場を一緒に乗り越えましょう
PANews APP
国内ブランドの金宝飾品の価格は下落を続け、1グラムあたり1400元を下回った。
PANews 速報