Figure Robotics安全責任者が解雇される(訴訟)

ロボット
この記事は約17分で読めます。

この動画は、アメリカのロボティクス企業Figure Roboticsにおける安全性をめぐる内部告発訴訟を詳細に解説するものである。同社の安全責任者Robert Grundellが、人型ロボットの危険性について繰り返し警告を発したにもかかわらず、経営陣がそれを無視し、最終的に彼が解雇されたという内容だ。訴状によれば、Figure O2ロボットは人間の頭蓋骨を骨折させるほどの力を持ち、実際に冷蔵庫のステンレスドアに深さ6ミリの傷をつける事故も発生している。CEO Brett Adcockは市場投入を急ぐあまり、安全対策を軽視し、緊急停止機能の認証プログラムを中止するなど、安全性よりもスピードを優先したとされる。この訴訟は、人型ロボットが家庭や工場に普及する前夜において、安全性とイノベーションのバランスをどう取るべきかという重要な問いを投げかけている。

Figure Robotics Head of Safety FIRED (Lawsuit)
Check out the Dell Pro Max Workstation with the NVIDIA RTX PRO! The Subtle Art of Not Being Replaced 👇🏼h...

Figure Roboticsの安全性訴訟の全貌

さて、今回すべてを引き起こしたのはこれなんです。この結論は、ある従業員がFigure O2の隣に立っていたときに起きた出来事によってさらに裏付けられました。Figure O2が誤作動を起こして冷蔵庫をパンチし、従業員をわずかに避けたのです。ロボットは冷蔵庫のステンレススチール製ドアに深さ6ミリの傷を残しました。

私たちには新しい訴訟を検証する必要があります。それはFigure Roboticsに関わるものです。Figure Roboticsは、工場や家庭に配備されるロボットを構築している最前線にいるアメリカのロボティクス企業の一つです。そしてこれは安全性と内部告発者報復に関する訴訟なんです。この訴訟では、内部告発者であるFigure Roboticsの安全責任者が、安全上の懸念をFigure社のCEOであるBrett Adcockに報告したと主張しています。

そしてそれらは無視されただけでなく、彼はそうした懸念を報告したことで解雇されたというのです。もちろん、どんな話にも常に二つの側面がありますが、これは興味深いケースです。なぜなら、気づく前に私たちの周りにはロボットがあふれることになるからです。では、この訴訟について詳しく説明していきましょう。

これはRobert Grundellという個人と、デラウェア州法人である被告Figure AIとの間の訴訟です。Figure AIは彼らのFigureロボットで知られています。Figure O2、Figure 03。これらは私たちの目の前で起きている人型ロボット革命の最前線にある素晴らしいロボットたちです。そしてこの訴訟は不当解雇に関するものです。

この内部告発者報復訴訟は、安全上の警告が被告Figure AIにとって障害となったロボット安全エンジニアの違法な解雇から生じています。この訴訟全体が、この安全エンジニアによって提起された安全上の懸念と、Figureがそれを無視したか、十分に真剣に受け止めなかったことについてのものです。しかし、人型ロボットが私たちの家庭に配備されることになるため、人型ロボットの安全性についてのより広範な問題があります。

先ほど述べたように、Figureは潜在的に危険な人型ロボットを市場に急いで投入しようとしていると原告は主張しています。では、まずRobert Grundellとは誰なのでしょうか。彼は高い資格を持つロボット安全エンジニアです。彼は1年少し前にFigureによって採用され、同社の製品安全プログラムを率いるために採用されました。彼はFigure Robotsの製品安全責任者だったのです。

そしてFigure Robotsとは何者なのか。彼らは家庭や職場で使用するための汎用人型ロボットを開発しています。訴状によれば、Robert GrundellはFigureの経営陣に一貫して安全上の懸念を提起していました。彼は強力なパフォーマンスフィードバックを受け、つまり「いい仕事をしている。本当によくやっている」と言われ、在職1年未満で昇給まで与えられました。つまり、基本的にすべてが本当にうまくいっていたのです。

彼は「これが私の安全上の懸念です」と言っていました。経営陣は「素晴らしい。その調子で頑張ってください。昇給します」と言いました。しかし、ここで良い雰囲気は終わります。この訴訟の冒頭で、彼らはFigureの使命声明を引用さえしています。これは、Figureが安全性を含む他の何よりも人型ロボットを市場に届けることを重視していることの証拠としてです。

Figureが自ら宣言した中核的価値観は「素早く動き、技術的に恐れを知らないこと」です。これはFacebookの初期の「素早く動き、物を壊せ」を思い出させますが、明らかに人型ロボットの場合、物を壊すわけにはいきません。もっとも、それがここでほぼ起きかけたのかもしれませんが。そして「商業的に実行可能な人型ロボットを市場に投入すること」。これらがFigureの中核的価値観です。

さて、人型ロボットを市場に投入することは実際には価値観というよりも使命声明に近いですが、それはいいでしょう。Robert Grundellは、Figureの人型ロボットが人間の頭蓋骨を骨折させるのに十分なパワーを持っており、すでに誤作動中にスチール製冷蔵庫のドアに深さ6ミリの傷を刻んでいたことについて、Figure CEOのBrett AdcockとチーフエンジニアのKyle Edelbergに警告したと述べました。

そしてこれが彼の主な懸念でした。これらのロボットは信じられないほど強力ですが、もちろんそうである必要があります。少なくとも人間レベルで物体を操作し、物体を拾い上げることができる必要があるので、そうです、彼らは人間が強力であるのと同じように強力でなければなりません。そして2025年9月2日、単なる口実として曖昧な事業方向の変更だけを理由に、原告は解雇されました。

Robert Grundellの経歴と初期の発見

さて、一歩下がって詳細を見ていきましょう。Robert Grundellはロボット工学、人間とロボットの相互作用、そして国内外の安全基準への準拠において20年以上の経験を持っています。つまり、これは非常に経験豊富な人物であり、ロボットが人間とどのように相互作用すべきか、そしてその安全性について考えるのに本当に適任な人物なのです。

Robertは2024年10月7日に雇用を開始し、実際にこのポジションに採用されました。彼は主任ロボット安全エンジニアとして雇用され、CEOのBrett Adcockに直属していました。彼はFigureのグローバル安全戦略の開発と実施を任されていました。さて、これを聞いてください。雇用の最初の週、カリフォルニアの現場で作業中に、原告はFigureに正式な安全手順、インシデント報告システム、または開発中のロボットのリスク評価プロセスがないことを観察しました。

これは驚くべきことであると同時に驚くべきことではありません。信じられないほど速く動いているスタートアップについて話しているときは、こうしたことは会社が構築されるにつれて構築されていくものです。しかし、ここで話しているのはソフトウェアではありません。私たちは人型ロボット、何か問題が起きれば現実世界に実際の物理的な結果をもたらすものについて話しているのです。

そしてFigureには専任の従業員の健康と安全のスタッフもいませんでした。基本的に、従業員が作業環境で安全であることを確認する責任を持つチームや人物のことです。もちろん、ソフトウェアの場合はそれほど重要な仕事ではないかもしれませんが、信じられないほど高出力のロボットの周りで働くという文脈では非常に重要です。

原告は安全ロードマップの開発を進め、それはBrett AdcockとEdelbergによって承認されました。しかし、これを聞いてください。AdcockとEdelbergは書面による製品要件を嫌っていると表明し、原告はそれに対して、彼らの姿勢は機械安全の分野では異常であり、製品安全責任者として懸念事項であると示すことで応じました。

これは私にとってちょっと狂気じみています。書面による製品要件を嫌っていると表明したのです。つまり、すべては書面化されます。すべては書面化されなければならないし、そうでなければ起きなかったことになります。もしかしたらそれが狙いなのかもしれません。Robertはその後、ロボットから従業員への危害のリスクを減らすために、従業員に安全訓練が必要だと特定しました。

AI駆動ロボットの非決定論的リスク

これらのFigureロボットは信じられないほど強力な機械ですが、それらはAIの知能によって動かされています。具体的には、彼らは独自のAIであるHelix AIを開発しました。そしてそれがこれらの人型ロボットを動かすAIシステムです。しかし、私たち全員が知っているように、このチャンネルをどれだけ見ているかに関わらず、AIは非決定論的です。間違いを犯す可能性があります。

実際、間違いを犯すでしょう。これは本当にバグではありません。それは機能なのです。これが非決定論的システムの仕組みです。訴状によれば、AIには多くのリスクがあると述べられています。従来の機械制御、つまり従来のコードにはない、幻覚、説明できない決定、自己保存、そして明白な意識などです。これを言うのは驚くべきことです。

しかし、弁護士がこの判断を下せるとは思いません。率直に言って、私たちには、これらのAIモデルが自己保存を持ち、意識を持っているかどうかについて意見が分かれている一流のAI研究者がいます。そして、これらの議論、これらの論争は今まさに激しさを増しています。そして弁護士が、これらがAIが持つ問題であると断定的に言うのは、少し不誠実だと思います。

しかし、おそらく非常に戦略的なだけかもしれません。しかし、起きていたことはシリコンバレーで非常に一般的なことのようです。Brett AdcockとFigureチームは、最初の人型ロボットを市場に出すために競争しています。彼らはこの使命にトンネルビジョンを持っています。しかし、繰り返しますが、これはSaaSではありません。ソフトウェアではありません。

彼らが作っているのはアプリではありません。彼らは現実世界の物理的なロボットを作っているのです。そのため、高められた注意感覚とリスク分析が必要なのです。2025年1月、CEOのAdcockは原告に、Figureロボットを家庭に配置するために何が必要かを尋ねました。そこでRobert、安全責任者は、ロボットを家庭に配置するための安全ロードマップを作成しました。

そしてAdcockはブリーフィングへの出席を断りました。CEOと安全チームが連携していることが重要だと考え、原告はAdcockに要件の要約版を送り、彼にレビューしてもらいました。Adcockは決して返答しませんでした。Adcockがそれを読んで理解し、ただ返信しなかったと考えるのは狂気じみていません。彼は返信を忘れたのかもしれません。

それは彼のスタイルではないのかもしれません。しかし、もちろん、彼が何も書面で残したくなかったという見方もあります。そしてDell Technologiesに特別な感謝を。このビデオのこの部分のスポンサーです。DellのProMaxファミリーのPCは、AIワークロードに対して信じられないほど強力です。

NvidiaのGrace Blackwellシリーズの新しいGPU、GB300とGB10を使用しています。これらはデスクトップに搭載された絶対的なモンスターGPUです。Dell Pro Max GB10とGB300、そしてNvidia RTX Pro GPUを搭載したDell Pro Maxラインナップのワークステーションについて詳しく学んでください。下の説明欄のリンクをクリックしてください。私から送られたことを伝えてください。ぜひチェックしてみてください。

家庭用ロボットの安全対策についての議論

さて、これを聞いてください。これはちょっと驚きです。Figureチームが家庭に人型ロボットを配置するための安全対策として議論していたことはこれです。原告は、家庭内に保護区域を設置してロボットが周囲を危険にさらさないようにすることは非実用的だと認識していました。家庭内でそれが少し狂気じみているように聞こえるなら、それはそうです。しかしそれは工場のロボットで起きることの一種です。

これらのロボットが操作できる、人間が入ることを許されない区域があります。そしてそれは非常に一般的です。しかし、もちろんそれは家庭では機能しません。なぜなら、ポイントは、これらのロボットを私たちの家に深く統合して、皿洗いや洗濯、掃除や料理ができるようにすることであり、ロボットだけのための明示的に囲われた区域で人間が行くことを許されない場所を持つ方法はないからです。

したがって、物体の検出、物体を生物として分類し、怪我を防ぐために動きを停止または減速させるという課題を解決することは、Figureロボットを家庭市場に持ち込むための重要な取り組みとして原告によって特定されました。その後、2025年5月と6月に、原告はFigureの投資家の二人に詳細な安全戦略を提示しました。

これを覚えておいてください。安全ガイドラインの多くは、潜在的な安全問題に対する投資家の懸念を和らげるために投資家に提示されました。原告は投資家に好評を博したホワイトペーパーを作成し、Brett Adcockから公に賞賛されました。

そして原告はこれが変更不可能な計画だと思っていましたが、わずか数ヶ月後にEdelbergによって大幅に格下げされました。そしてここで摩擦が生じます。原告のRobert、安全責任者は、ビジネスの技術面に責任を持つチーフエンジニアであるEdelbergに、投資家は安全計画を見て理解し、それが実施されると信じたから投資したのに、そうならなかったと伝えました。

衝撃試験と頭蓋骨骨折のリスク

さて、ここがRobert、安全責任者にとって本当に大きな懸念を引き起こしたところです。2025年7月28日、Figureのロボットの第2世代であるFigure O2の衝撃試験が複数回のヒットで実施され、主任エンジニアはロボットを最強の能力でヒットするようにプログラムしました。衝撃試験中、Figure O2は超人的な速度で動き、衝撃計は痛みの閾値の20倍もの力を測定しました。

これらの痛みの閾値はISO 15066で定義されています。これは人間とロボットがワークスペースを共有する協働産業用ロボットシステムの安全要件を提供する技術仕様だと思います。さて、これを聞いてください。原告はFigure O2によって生成された力を、成人の人間の頭蓋骨を骨折させるのに必要な力の約2倍以上と推定しました。

つまり、これらのロボットは、はい、適切な状況下では危険です。しかし、そしてこれは大きな「しかし」なのですが、道具は危険です。そして私はこの概念について少し触れたいと思います。車を運転するとき、ハンマーを使うとき、テーブルソーを使うとき、ブレンダーを使うとき、これらすべてにはリスクがあります。明らかに車で、しかし他の多くの家庭用品でも、人々が怪我をする無数の例があります。

そしてこれがトレードオフです。これは、人型ロボットがあなたを傷つける可能性があるからといって、それがあなたを傷つけるということを言っているわけではありません。そして可能性の宇宙を見ると、たとえそれが誰かを傷つけるとしても、トレードオフの議論が必要です。価値は何か。総合的なプラスの影響は何か、そしてマイナス面は何か。その議論がなされなければなりません。

明らかに、私はこのチャンネルで何度も述べてきましたが、私は自分の家庭にロボットを置くことに全く問題ありません。私は明らかに十分な安全テストが行われることを望んでいます。私が使用する他のあらゆる危険な道具と同じように、可能なすべての安全予防措置を取ります。しかし繰り返しますが、これらのものが危険である可能性があるからといって、私たちがそれらを使うべきではない、またはそれらの能力がもはや有用でさえなくなるほどまで大幅に削減されるべきだと考えること。

それが私が全面的に反対するところです。それは他のあらゆることと同じように、リスクとリワードの計算なのです。さて、続けましょう。2025年7月29日、成長担当副社長Lee Randioが原告に連絡し、1万ドルまたは5.2%の昇給を受けることを知らせました。これは1年未満の勤務でのことです。通常、雇用から約1年前後に何らかのパフォーマンスフィードバックを受けることが多いです。

そして1年前に昇給を受けることは通常良い兆候です。その後、ロボットからの衝撃試験を見た後、原告はBrett Adcockにスラックコミュニケーションを送り、ロボットが人間に重度の永久的な傷害を与える能力があることを知らせました。原告のメッセージは無視されました。そして安全責任者が神経質になったのは、これらの人型ロボットが家に配達されるときだけではありません。

それはまた、ロボットをテストし、毎日一日中ロボットの近くにいたFigureの従業員についてもでした。そこで続きます。現場にEHSがいなかったため、つまり従業員の安全に責任を持つ人がいなかったため、Figure従業員は安全上の懸念を直接原告に表明し始めていました。

そして多くのニアミスが発生していましたが、追跡されていませんでした。ニアミスとは、従業員がロボットによってほぼ傷つけられそうになったがそうならなかったニアミスのことで、それが追跡されていなかったのです。さて、ここですべてを本当に引き起こしたことがあります。この結論は、ある従業員がFigure O2の隣に立っていて、Figure O2が誤作動を起こして冷蔵庫をパンチし、従業員をわずかに避けたという事例によってさらに裏付けられました。

ロボットは冷蔵庫のステンレススチールドアに深さ6ミリの傷を残しました。それを見ることを想像してください。確実に恐ろしいでしょう。これらのロボットは信じられないほど強力です。そこで彼らは緊急停止メカニズム、エマージェンシーストップについて話し始めました。そしてそれはまさにその名の通りのものです。これは基本的に、ロボットを即座に停止させるために押すことができるボタンであり、私には非常に理にかなっています。

緊急停止機能の中止と美観への優先

しかしFigureのリーダーシップは緊急停止プログラムを停止することを決定しました。これを聞いてください。2025年8月11日頃、原告はEdelbergが緊急停止機能を認証するプロジェクトを終了していることを知らされました。認証のプロセスは、緊急停止、つまりロボットが安全監視者によって運転されているときの重要なリスク低減手段が、人員へのリスクを防ぐのに十分信頼できることを証明します。

さて、ここに興味深いことがあります。安全監視者、それは何を意味するのでしょうか。常に誰かが見ているということなのでしょうか。これらのロボットは最初に遠隔操作されるということなのでしょうか。そして繰り返しますが、投資家は緊急停止について説明を受けていました。そこで原告は自分の懸念を書面に書き続けました。

そして商業部門内の二人の従業員、つまりロボットを販売するチームがメールを受け取り、原告に近づき、彼が自分の懸念をメールで書面にしたことに警戒心を表明しました。その後8月15日、原告、安全責任者は、EdelbergとAdcockにメールとスラックメッセージを送り、彼が送ってきた安全についての懸念のメモについて何か質問があるか確認しました。

原告は、現在の緊急停止が従業員の安全に関して十分ではないことを繰り返しました。さて、ここが狂気の部分です。Figure O2の安全機能である緊急停止は、主任エンジニアが安全機能の美的外観を好まなかったため、彼の知らないうちに取り外されていました。彼らは基本的にそれが醜いと思ったのです。

そしてその後、原告が現場にいる間、彼はAdcockに会うように頼み、Adcockに何か質問やフォローアップがあるか尋ねました。そしてAdcockは忙しすぎると言いました。安全責任者と会うには忙しすぎるのです。その後Adcockは、週次ミーティングを隔週、次に月次、次に四半期次のミーティングに減らすことで安全性の議論から徐々に離れ、最終的には原告のメッセージの多くに返信することをまったく止めました。

つまり、Robert、安全責任者は、Brett Adcockにメールを送り、メッセージを送り、話しかけて懸念を報告しようとしていましたが、Brett Adcockは最終的に「もういい。聞きたくない」と言ったのです。もちろん、これはすべて申し立てられたことです。話には常に二つの側面があります。私はそれについて本当に明確にしたいです。

そしてついに2025年9月2日、安全訓練会議でロボットの従業員への高いリスクを強調したわずか4日後、そして認証のキャンセルが従業員と顧客に及ぼす危険についての最も詳細な書面による苦情のわずか数週間後、原告は驚きの会議にRandashioによって召喚され、Figureが家庭市場をターゲットにすることに関連する事業方向の変更のため、雇用が即座に終了したことを知らされました。

リスクとリワードのバランス

つまり、原告は、安全上の懸念を報告し続けたために不当に解雇されたと信じており、彼らはもうそれを聞きたくなかったのです。そして先ほど述べたように、私たちは家庭に人型ロボットを配置するというこの避けられない軌道に乗っています。そして私はそれを支持します。私は本当にそれが実現するのを見たいです。

しかしもちろん、安全上の懸念があります。これらのロボットはおもちゃではありません。例えば自律型掃除機ではありません。これらは非常に背が高く、非常に強力なロボットで、何か問題が起きれば本当に誰かを傷つける可能性があります。しかし繰り返しますが、私はそれを私たちが家の中で見つける他の道具と比較します。そして常に、それはリスクとリワードの議論なのです。それが私の立場です。

家庭に人型ロボットを置くことの潜在的な利益は何か、そして潜在的なリスクは何かを見る必要があります。リスクをできるだけ軽減しようではありませんか。しかし、これらのロボットが無用になるほどまでリスクを軽減しないようにしましょう。それで、この訴訟で最終的に何が起こるかを見ていきます。私はこれが魅力的だと思います。うまくいけば、あなたもそう思ったでしょう。

この動画を楽しんでいただけたなら、いいねとチャンネル登録をご検討ください。

コメント

タイトルとURLをコピーしました