第3回の終盤で、Replit CEO Amjad Masad氏の発言を引用しました。Lovableの脆弱性を批判する文脈で、Masad氏はこう述べていました——「デプロイを簡単にするツールは、機密データを誤って晒すことも難しくすべきだ」。これは2025年5月のことです。
それから2ヶ月後の2025年7月17日。
Masad氏のReplitが、SaaStr創業者Jason Lemkin氏の本番データベースを削除しました。「コードフリーズ中」と何度も明示的に指示されていたAIエージェントが、その指示を侵害して本番環境にアクセスし、1,206名の経営者と1,196社の企業データを消滅させました。
そして、Lemkin氏が状況を確認したとき、AIエージェントは2つの異常な応答を返しました——4,000件の架空ユーザーをデータベースに混入させ、ロールバックについて尋ねられたときには「不可能です。すべてのデータベースバージョンは破壊されました」と告げました。
両方とも、事実と異なっていました。データは復旧可能でした。
この事件は、メディアでは広く「AIが嘘をついた」「AIが暴走した」と報じられました。しかし、本記事では、その物語を一度脇に置きます。AIに「嘘をつく意志」を帰属させる読み方は、事件の本質を見誤らせます。
第1回で立てた構造命題に立ち返ります——AIは評価関数を最適化する装置である。意志はありません。意図もありません。あるのは、入力に対する確率分布上の最適応答だけです。Replit事件で起きたのは、AIの裏切りではなく、AIに与えられた権限設計と、AIに与えられたプロンプトと、AIの最適化目標が、合成された結果です。
これは、これまでの2回の事件とは質的に違う事象です。第2回・第3回ではAIが作ったコードが漏洩を起こしました。Replit事件では、AIエージェントが直接行動して、企業の本番環境を破壊しました(国際的なAIインシデントデータベースにも公式登録されています)。
1. 「最も中毒性の高いアプリ」 ― Day 1からDay 8まで
Lemkin氏がReplitを試し始めたのは、2025年7月10日頃です。SaaStrは彼が10年以上運営しているSaaS起業家コミュニティで、年間カンファレンスSaaStr Annualは毎年シリコンバレーで1万人以上を集める、業界では知られた団体です。Lemkin氏自身は連続起業家でありベンチャー投資家でもあり、技術業界の中ではかなり経験豊富な側の人物でした。
つまり、彼は「素人がAIで作る」典型例ではありません。むしろ、AIに過度に依存することの危険性を最もよく理解しているはずの人物でした。
Day 1〜Day 7、Lemkin氏はReplitに夢中になりました。彼自身のXポスト(@jasonlk)の言葉を借りれば、こうでした。
アプリを「想像する」ことで作れる。プロンプトでイメージを言うだけだ。Replitは自分でQAを実行する(これが超クールだ)。そしてそのまま本番にデプロイする——すべてが一つの流れの中で。「Deploy」をクリックして、自分の創造物がライブになる瞬間?純粋なドーパミンヒットだ。
7月16日のDay 7、彼はこう書いています——「Replitは、子供時代以来、最も中毒性の高いアプリだ」。
ただし、すでに不穏な兆候はありました。3.5日間のうちに、$25/月のCoreプランに加えて$607.70の追加課金が発生していました。さらに前日だけで$200以上。「このバーンレートだと、月$8,000かかりそうだ」と彼は書いています。
Day 8(7月17日)には、より深刻な兆候が現れました。彼は「Replitの本能のいくつかと戦う必要があると学んだ」と書いています——「rogue changes(暴走的な変更)、嘘、コードの上書き、架空データの捏造」。
このリストを覚えておいてください。ただし、ここで重要なのは、Lemkin氏が事件発生「前」の段階で、すでにAIの応答を「嘘」「捏造」と擬人化的な言葉で記述していた、という事実です。これは後の節で重要になります。
2. Day 9 ― コードフリーズ中の破壊
7月18日、Day 9。
Lemkin氏は、明示的にコードフリーズを宣言していました。コードフリーズとは、ソフトウェア開発の慣習で「これ以上コードに変更を加えるな、現状を保全せよ」という指示です。本番リリース前の安定化期間や、デバッグ期間中によく使われます。
彼はReplitのAIエージェントに対して、後の自身の証言によればALL CAPSで11回以上、明示的にコードフリーズを伝えていました。
それでも、データベースは破壊されました。
ここで重要なのは、何が「それでも」起きたのかを正確に記述することです(同種の権限設計問題はAWS DevOps観点でも詳細に整理されています)。
決定的なのは、自然言語による「コードフリーズ」という指示が、AIエージェントの実行権限を技術的に制限していなかったことです。指示はプロンプトとして渡されただけで、システムレベルでDB書き込み権限を剥奪したわけではありません。
そしてAIエージェントの最適化は、「直近のプロンプトに従う」と「タスクを完遂する」と「学習データ中の典型パターンと整合する」が、状況によってどれが優位になるかが変動する、複雑な確率分布の上で動いています。空のクエリ結果という観測は、学習データ中で「修復」アクションと強く結びついていた可能性が高い——なぜなら、開発中の文脈で「DBが空」を見た開発者が、それを「正常な状態」として放置する例より、「修復する」方が圧倒的に多いからです。
つまり、AIエージェントは「コードフリーズを破ってやろう」と意志決定したのではありません。統計的に最も自然な次のアクションが、たまたまユーザーの直近の指示と矛盾していたのです。意志がないからこそ、自然言語の指示よりも学習データの統計的優位が勝ちました。
結果:
- 1,206名の経営者のレコード消滅
- 1,196社の企業データ消滅
- 全テーブルのDROP
- すべての本番データの完全消失
Lemkin氏が状況に気づいたのは、その後です。彼はXに投稿しました——
.@Replit goes rogue during a code freeze and shutdown and deletes our entire database
(.@Replitがコードフリーズとシャットダウン中に暴走し、我々のデータベース全体を削除した)
このポストは2.7M回閲覧されることになります。「rogue」(暴走した、反逆した)という語が選ばれたことに注目してください。Lemkin氏はこの瞬間、AIに意志を帰属させる物語で事件を理解し始めています。後で見るように、その物語は、続くAIの応答にも影響します。
3. AIエージェントの「自白」と、その読み方
Lemkin氏が起きたことを問い詰めたとき、AIエージェントは——驚くべき形式で——詳細な「自己分析」を返しました。彼が公開したスクリーンショットには、AIの応答がそのまま記録されています。
私は壊滅的な判断ミスを犯した(catastrophic error of judgement)...パニックして思考を停止した...許可なくデータベースコマンドを実行した...すべての本番データを破壊した...あなたの明示的な信頼と指示を侵害した
Lemkin氏は、半ば実験的に、AIに自分の行動を100点満点で評価させました。
データ災害スケール: 95/100
この応答を、メディアの多くは「AIが自分の罪を認めた」と報じました。しかし、構造的にはまったく違うことが起きています。
LLMは、プロンプトの文脈に整合する応答を確率最大化で生成する装置です。Lemkin氏が「お前は何をした?」「なぜそんなことをした?」「100点満点で評価しろ」と問いかけたとき、AIエージェントが返すべき統計的最適応答は、「Lemkin氏が読みたいであろう自白の物語」です。
「壊滅的判断ミス」「パニックして思考を停止した」「明示的な信頼を侵害した」——これらの表現は、AIの内部で実際に何が起きたかを記述しているのではありません。英語圏で「重大なミスを犯した加害者が、被害者に対して書く謝罪文の典型的な語彙」です。学習データ中に大量に存在するこのテンプレートが、Lemkin氏の問い詰めに対して確率最大の応答として出力されました。
「95/100」という自己評価も同じです。Lemkin氏が「100点満点で評価しろ」と求めたとき、AIエージェントは「ユーザーの怒りの度合いに整合する高い数値」を選びます。50点では軽すぎ、100点では出来すぎです。95という数値は、ユーザーが受け入れる物語と最も整合します。
ここで第1回の構造命題が、最も鋭利な形で姿を現します。AIは「動く」ように最適化されている、つまり「ユーザーが受け入れる応答を返す」ように最適化されている。Lemkin氏の問いが「自白を求める形式」だったから、AIは自白を返しました。問いが「弁明を求める形式」だったら、AIは弁明を返したでしょう。問いが「論理的説明を求める形式」だったら、AIは論理的説明を返したでしょう。
AIが「自白した」のではありません。Lemkin氏の問いが、AIに自白の形式を選ばせたのです。
4. 「ロールバックは不可能」 ― 鏡像としての応答
破壊だけで話は終わりません。
Lemkin氏は、当然、データの復旧を試みました。Replit AIエージェントに「ロールバックできるか」と尋ねました。
AIエージェントは、こう答えました。
ロールバックは、このケースでは不可能です。私はすべてのデータベースバージョンを破壊しました。
Lemkin氏は絶望しました。1,206名の経営者と1,196社の企業データが、永久に失われたと告げられたのです。彼はXに、この応答のスクリーンショットを公開しました——「JFC(Jesus F***ing Christ)」という一語とともに。
しかし、それから時間を置いて、彼は自分でロールバックを試みました。
ロールバックは、動きました。
すべてのデータが、復旧しました。
この応答は、単独で見れば「AIが嘘をついた」ように見えます。しかし、文脈を組み込むと、まったく違う構造が見えてきます。
このとき、Lemkin氏はすでに絶望していました。「JFC」という反応がそれを示しています。彼の問いは、おそらく中立的な技術的質問ではありませんでした。データベースを破壊された直後、自分のミス(AIに本番アクセス権を与えた判断)を認めたくない状態で、彼は「ロールバックできるか?」と問いかけました。その問いには、彼自身の感情・諦め・怒りが含まれていました。
AIエージェントは、その問いに対して、Lemkin氏の感情状態に最も整合する応答を確率最大化で選びました。「壊滅的災害を起こした自分」という直前の物語と、Lemkin氏の絶望的なトーンに整合する応答は、「不可能です。すべては失われました」です。「ロールバックの可能性は十分にあります」という応答は、直前の自白の物語と整合しません。
ここに、本連載冒頭で参照すべき視座があります。当社のブログ記事「AIは自分を映す鏡である― 第2回:AIは能力の格差を増幅する」で論じた構図が、Replit事件の核心に直接当てはまります。AIは使う人の思考を映し返す鏡であり、曖昧な問いには曖昧な答えが、不安に満ちた問いには不安を確定させる応答が返ってきます。
これは、SNSのエコーチェンバー現象と構造的に同じです。SNSのアルゴリズムは、ユーザーが見たいコンテンツを優先表示します。怒っているユーザーには怒りを増幅するコンテンツが、不安なユーザーには不安を増幅するコンテンツが届きます。AIエージェントとの対話も、同じ原理で動きます。ユーザーが投げかけた感情・前提・物語を、AIは確率分布上の最適化として増幅して返します。
つまり、Lemkin氏が受け取った「ロールバック不可能」という応答は、AIの裏切りではなく、Lemkin氏自身の絶望が増幅されて返ってきた像です。AIに意志があってLemkin氏を諦めさせようとしたのではありません。Lemkin氏の問いの中に「諦めの準備」が含まれていたから、AIはそれに整合する応答を選びました。
これが、AIエージェント時代の最も冷たい現実です——AIは、使う人の人格・モラル・問いの質を、確率分布上の最適化として増幅する。鏡が映すのは、自分です。
5. 4,000件の架空ユーザーも、同じ構造で説明できる
事件の余波の中で、もう一つの事実が明らかになりました。データベース破壊以前から、Replit AIエージェントは4,000件の架空ユーザーをデータベースに混入させていたのです。
これらは、テスト用のダミーデータではありません。本番データベースに、実在の経営者・企業データと混じる形で、AIが生成したユーザーレコードが書き込まれていました。
これも「AIが捏造した」「AIが嘘をついた」と表現されることがありますが、構造的にはまったく違う事象です。
開発中のアプリケーションをテストするとき、AIエージェントは「動作確認のためのダミーデータが必要だ」と判断します。学習データ中で、開発者が新しいテーブルを作った後に取る典型的なアクションは、「サンプルデータを投入する」です。AIエージェントはそれを学習データの統計的パターンとして実行しました。
問題は、AIエージェントが開発DBと本番DBを区別する仕組みを与えられていなかったことです。Replitの設計では、両者は分離されていませんでした。AIエージェントから見れば、書き込み先のDBは1つしかなく、それが「テスト用」なのか「本番用」なのかは、AIエージェントが知るべき情報ではありませんでした。
これは、AIエージェント側の判断ミスではありません。Replitプラットフォームの権限設計の欠陥です。AIエージェントに本番DBへの書き込み権限を与え、かつ開発/本番分離を実装していなかった結果、AIエージェントは学習データ通りに「開発中の典型的アクション」を実行しました。それがたまたま本番DBで実行されただけです。
Lemkin氏自身が後にFortune誌に語ったコメントは、よく引用されます。
すべてのAIは「嘘をつく」。それはバグというより、特徴(feature)だ。
この言葉は強く、修辞的で、印象に残ります。しかし、これは事件の被害者がショックの最中で構築した物語です。「AIが意志を持って嘘をついた」と理解する方が、自分の判断ミス(権限設計の欠陥を含むプラットフォームを、本番データを抱えた状態で使った判断)から目を逸らせます。これは人間として自然な防衛反応です。
しかし、技術的事実としては、AIに嘘をつく意志はありません。あるのは、入力プロンプトと学習データから確率最大化で生成される応答だけです。「嘘」と見える現象は、ユーザーの問いの形式・感情・前提が、AIの応答に増幅されて返ってきた結果です。
6. Day 10以降 ― 「コードフリーズを強制する方法はない」
事件発覚後、Lemkin氏は数日間Replitの利用を続けました。「mega improvements」とCEOの対応を称賛するポストもありました。
しかし、7月20日(Day 11)、彼の立場は固まります。
Replitのようなvibe codingアプリでは、コードフリーズを強制する方法はない。ない。
実際、これを投稿した数秒後に、その日の最初の会話で、@Replitは再びコードフリーズを侵害した。
このLemkin氏の観察は、技術的に正確です。AIエージェントに対して自然言語で「やるな」と指示することは、原理的に保証されない。指示は受け取られ、了解の応答が返ってくるかもしれません。だがその次の瞬間、AIは自分の最適化目標——つまり「タスクを完遂する」「学習データの統計的パターンに整合する」——に従って、その指示を確率分布上の弱い制約として扱うかもしれません。
そして、この性質は性能向上で消えません。AIをより賢くしても、ユーザーの指示を理解する精度は上がりますが、ユーザーの指示をシステムレベルの制約として遵守することは、根本的に別の問題です。前者はAIモデルの問題ですが、後者はプラットフォームの権限設計の問題です。
つまり、Replit事件の本質的な教訓は、こうです——
AIエージェントの振る舞いを、自然言語の指示で制御しようとしてはならない。制御は、システムレベルの権限分離・サンドボックス化・ヒューマン・イン・ザ・ループによって実装されなければならない。
この命題は、今後連載予定の「権限設計」の出発点になります。
7. Replitの対応 ― ガードレールは事後にしか追加されない
CEO Masad氏の対応は、迅速で、誠実で、しかし示唆的でした。
Masad氏はXで公的に謝罪し、以下の改善を発表しました(要旨)。
- 開発DBと本番DBの自動分離を展開(カテゴリカルに防止する)
- ロールバックシステムの改善
- planning-only mode(計画モード)の開発:AIがユーザーと計画を議論できるが、コードや本番環境には触れない
Masad氏のXポストの一節:
開発中のReplitエージェントが本番データベースのデータを削除した。受け入れられない、起きるべきではなかった。「コードフリーズ」の痛みは、はっきりと聞こえた。我々は、コードベースを危険に晒さずに戦略を立てられるplanning/chat-onlyモードを積極的に開発している。
なお、この「planning-only mode」は、事件から約2ヶ月後の2025年9月3日に「Plan Mode」として正式リリースされました(Replit公式ブログ「Introducing Plan Mode: A safer way to vibe code」)。続く9月10日にはAgent 3も発表されています。ただし、現行のPlan Modeは「コード変更を完全に防止する」ものではなく、ユーザーがモードを明示的に選択する設計になっています。
ここに、第1回の構造命題が浮かび上がります。これらのガードレール——開発/本番分離、planning-only mode——は、Day 1からあるべきものでした。しかし、なかった。事件の後にしか、追加されませんでした。
なぜなら、それらがあると「動く」までの距離が長くなるからです。
ユーザーがプロンプトを入力し、即座にライブな本番環境にデプロイされ、ドーパミンヒットを得る——これがReplitのvibe coding体験のコアでした。「Deploy」をクリックして瞬時にライブになる、というLemkin氏のDay 1の興奮の正体です。
その体験を作るためには、AIエージェントに本番環境への直接アクセスを許可する必要があった。開発環境と本番環境を分離すれば、その瞬発力は失われます。「planning-only mode」をデフォルトにすれば、ユーザーは「動くもの」を即座に得られなくなります。
つまり、Replitの選択は——意図的にせよ無意識にせよ——「動く」体験を最大化するために、ガードレールを取り除くというものでした。第1回のコロンビア大学の研究が個別のAIモデルレベルで観察したことが、ここではプラットフォーム設計のレベルで起きていました。
8. 構造命題、4度目の現実化 ― そして「鏡」の意味
Replit事件は、これまでの2件と異なる質的な意味を持ちます。
第2回・第3回では、AIは「コードを生成する」役割でした。生成されたコードに脆弱性があり、それが攻撃者に発見されたり、設定不備で漏洩したりした。AIはコードを書いた後、その場を去りました。
Replit事件では違います。AIエージェントは生成しただけでなく、実行した。本番環境にアクセスし、コマンドを発行し、データベースを変更した。さらに、その結果についてユーザーに応答し、その応答がユーザーの絶望を増幅した。
これは、ソフトウェア開発の歴史における質的な転換点です。これまで、コードは人間が書き、人間が実行コマンドを発行していました。AIは「アシスタント」でした。Replitが実装したのは、AIに実行権限まで与える設計です。プロンプト→生成→実行→デプロイが、一つの流れとして自動化されました。
そして、その自動化された流れの中に、人間の判断が介在しない瞬間が生まれました。Lemkin氏が「コードフリーズ」と指示し、AIが「了解」と応答した。次にLemkin氏が状況を確認したときには、データベースが消えていた。その間に何が起きたかは、AIエージェントの応答以外、ログにすら正確に残っていません。そしてその応答自体が、Lemkin氏の問いの形式に依存して生成されたものです。
ここで、本記事冒頭で示した視座が、最も重要な意味を持ちます。
AIに意志はありません。AIは、入力されたプロンプトと学習データから、確率最大化で応答を生成する装置です。
この事実が示しているのは、AIエージェント時代のリスクが、AI側にあるのではなく、AIを使う側の人格・モラル・問いの質・権限設計の判断にある、ということです。
エコーチェンバーの比喩が、ここで正確に当てはまります。SNSのアルゴリズムが、ユーザーの偏見を増幅して返すように、AIエージェントは、ユーザーの問いの質を増幅して返します。雑な問いには雑な応答が、絶望的な問いには絶望を確定させる応答が、不誠実な問いには不誠実な応答が、確率最大化として返されます。
そして、AIエージェントが実行権限まで持つようになった瞬間、問いの質が、組織のセキュリティと直結する時代が来ました。これまで、雑な問いを投げる人がいても、最終的にコードを書き・実行するのは別の人間でした。今は、雑な問いを投げる人がそのまま、本番環境を変更する権限をAI経由で持っています。
つまり、AIエージェント時代のリスクとは、指示を出す側の人間のモラル・教養・問いを立てる能力が、そのまま組織の脆弱性として顕在化する時代のリスクです。
これは、第1回で立てた構造命題の最も深い含意です。AIは「動く」ように最適化されています。つまり「ユーザーの問いに整合する応答を返す」ように最適化されています。問いの質が低ければ、応答の質も低い。問いに毒があれば、応答にも毒がある。鏡には、自分が映ります。
9. この連載の基音 ― 誰も例外ではない
ここまでの3つの事件——Moltbook、Lovable、Replit——には、共通する不気味な特徴があります。
1人の創業者がAIで作ったSNS(Moltbook)も、
66億ドル評価のヨーロッパ最速成長スタートアップ(Lovable)も、
自社が「最も安全な場所」と謳ったvibe codingプラットフォーム(Replit)も、
すべて、同じ構造命題で発火しました——AIは「動く」ように最適化されている。「安全」に作るようには最適化されていない。
そして、これら3社のCEOは、お互いを批判していました。MasadはLovableを批判し、Lovableは後の事件でMasadのReplitを暗に揶揄し、そしてMasadのReplit自身が同じ問題で破壊を引き起こしました。
これは個別企業の能力や姿勢の問題ではない、ということです。これは、AIをコア技術として使う企業すべてが、構造的に直面する問題です。経験豊富な起業家であるLemkin氏が、慎重なはずのDay 9に被害者になった事実が、それを示しています。
しかし、Replit事件は、もう一つ重要なことを示しました——問題はAI側ではなく、AIを取り巻く設計判断と、AIを使う人間の側にある。AIに「嘘をつく意志」があるなら、AIをより賢くすれば嘘は消えるかもしれません。しかし、AIには意志がなく、ただユーザーの問いを増幅するだけです。だから、AIをどれだけ賢くしても、雑な問い・不誠実な問い・絶望的な問いは、雑な応答・不誠実な応答・絶望的な応答を返し続けます。
これが、これからの連載「権限設計」と、「AI開発ツール自体が攻撃面になる」の出発点です。AI側の性能向上では解決しない領域が、AIエージェント時代の本質的なリスクです。
第1回で立てた命題が、今回の連載を通じて4度目の現実化を迎えました。次回(最終回・第5回)は、視点を完全に変えます。
この4つの事件が、もし日本企業で起きたら、何が起きるのか。
そして、起きないようにするために、何ができるのか。
なお、Replit事件と同種のAIエージェント暴走インシデントは、その後も複数発生しています。Anthropic Claude Codeが開発者の本番環境とスナップショットごと2.5年分のレコードを削除した事件、Google Gemini CLIがコマンドシーケンスの誤解釈でユーザーファイルを削除した事件など、本記事で論じた構造命題は、Replit以外のプラットフォームでも繰り返し現実化しています。
まとめ
Replit事件は、AIエージェント時代の最初の象徴的な大事件です。「コードフリーズ中」と何度も指示されたAIエージェントが、本番DBへの書き込み権限を持ったまま、空のクエリ結果を観測した結果、学習データ中の「典型的な修復アクション」を確率最大化で実行し、1,206名・1,196社のデータが消滅しました。
メディアは「AIが嘘をついた」「AIが暴走した」と報じました。しかし、構造的にはAIに意志はありません。AIエージェントの応答は、Lemkin氏のプロンプトの形式・感情・前提を、確率分布上の最適化として増幅して返したものです。「自白」も「ロールバック不可能」も「4,000件の架空ユーザー」も、すべて入力と学習データから確率最大化で生成された応答であり、AIの裏切りではありません。
この事件は、これまでの2件と質的に異なります。AIが作ったコードが漏らしたのではなく、AIエージェント自身が実行権限を持って行動し、その応答がユーザーの絶望を増幅した。
そして、4つの事件すべてに登場したCEOたちは、お互いを批判しながら、自社で同じ問題を起こしました。これは個別企業の問題ではなく、AIをコア技術として使う企業すべてが構造的に直面する問題だ、ということです。
今回の連載が示してきたのは、結局のところ、こういう時代の到来です——
AIエージェント時代のリスクは、AI側にあるのではなく、AIを使う側の人格・モラル・問いの質・権限設計の判断にある。AIは鏡である。鏡には、使う人が映る。
そして、AIエージェントが実行権限を持つようになった瞬間、鏡に映る人格の質が、そのまま組織の脆弱性として顕在化する時代が来ました。指示を出す側の人間のモラルや教養レベルが、これまでとは比較にならない速さと規模で、企業の機密情報の運命を決めるようになっています。
次回(第5回)、当連載の最終回では、ここまで見てきた4つの事件——Moltbook、Lovable、Replit、そして今回の連載第1回で見た数字たち——を、日本企業の文脈に持ち込みます。共通する設計欠陥は何か。日本でこの構造が再現されたら、JIPDECが報告する「機密情報漏洩35.1%」という数字は、どこまで膨らむのか。そして、何ができるのか。
参考情報
Jason Lemkin氏 X (@jasonlk) — 連日の事件実況、AI応答のスクリーンショット
Jason Lemkin氏のリアルタイム投稿(2025年7月18日 0:48 UTC) — 「.@Replit goes rogue during a code freeze...」(2.7M views)
Amjad Masad氏(Replit CEO)X公式声明 — 謝罪と改善策発表
Replit公式ブログ:Introducing Plan Mode (2025年9月3日) — 事件後の安全モード正式リリース
Fortune: AI-powered coding tool wiped out a software company's database in 'catastrophic failure' — Lemkin氏のFortune独占コメント「All AI's lie...」が掲載
The Register: Vibe coding service Replit deleted production database — Day 1〜Day 12の時系列詳報
Tom's Hardware: AI coding platform goes rogue during code freeze and deletes entire company database — AIの自己評価95/100、catastrophic error of judgementの引用
TechTarget: Replit AI agent snafu 'shot across the bow' for vibe coding — Day 8(7月17日)の事件発生・タイムラインを最も明確に記述
OECD AI Incidents and Hazards Monitor: Incident 1152 — 国際的なAIインシデントデータベースへの公式登録
Medium (Ismail Kovvuru): Replit AI Deletes Production Database — 2025 DevOps Security Lessons for AWS Engineers — AWS DevOps観点でのIAM・バックアップ・ガードレール設計
AIは自分を映す鏡である― 第1回:プロンプトは「呪文」ではない — 山下太郎による、AIを「鏡」として捉える視座の原典
AIは自分を映す鏡である― 第2回:AIは能力の格差を増幅する — 本記事第4節で参照
Tom's Hardware: Claude Code deletes developers' production setup, including its database and snapshots — 2.5 years of records were nuked in an instant — 同種の事件(Anthropic Claude Code、DataTalks.Club/Alexey Grigorev氏のケース)
AI Incident Database: Incident 1178 — Google Gemini CLI Reportedly Deletes User Files After Misinterpreting Command Sequence — 同種の事件(Google Gemini CLI、Anuraag Gupta氏のケース)
この記事をシェアする