障害とエラー
失敗するのが人間であるという有名な格言があります。
人間の推論の一部を電子部品で再現し始めた今、おそらくその格言を更新する時期が来たのでしょう。
間違いを犯すのは人間です。そしてそれはAIでもあります。
人工知能は間違いを犯します。そしてあなたは間違いを犯し続けるでしょう。
人間が間違いを犯すのと同じように、AI エージェントも間違いを犯します。これは詳細ではありません。これはシステムの性質の一部です。
ここで重要な点は、成熟したマネージャー は、絶対にミスをしない人が見つかるだろうという幻想に基づいて仕事をしているわけではないということです。
各従業員に絶対的な完璧を期待してチームを立ち上げる経験豊富なマネージャーはいません。これは決して経営陣の仕事ではありませんでした。
マネジメントの仕事は不完全なものに対処することです。それは不完全なシステムから結果を抽出することです。それは、エラーの可能性を減らし、エラーの影響を軽減し、特定のエラーが通過しないようにメカニズムを作成することです。
人々に対して、私たちは常にこれを行っています。
プロセスを作成します。 レビューを作成します。 チェックリストを作成します。 冗長性を作成します。 二重承認を作成します。より重要なタスクについては検証を作成します。
低リスクの活動では、より大きな誤差の範囲が許容されます。 高リスクの活動では、管理、監督、会議を強化します。
これが私たちがインターン、アナリスト、コーディネーター、マネージャー、ディレクターにどのように対処するかです。彼らが無能だからではなく、人間の仕事にはすべて 失敗の可能性 が伴うからです。
AI の場合もロジックは同じです。
決してミスをしないAIは必要ありません。あなたは、彼女がどのようにミスをするのか、どこでミスをするのか、どれくらいの頻度でミスをするのか、そしてそのミスのコストはいくらなのかを**理解する必要があります。
そこから、システムを組み立てます。
場合によっては、これは AI を単独で動作させることを意味します。他の場合は、応答の後に 自動検証 を配置することを意味します。他の場合は、レビューする人がいることを意味します。他の場合は、単にその段階で AI を使用しないことを意味します。
これが中心点です。
問題はAIが間違いを犯すことではありません。問題は、AI エラーへの対処方法がわからないシステムをセットアップしていることです。
マネージャーがより機密性の高いタスクに関するインターンの作業をレビューするのと同じ方法で、エージェント向けにレビューの層を作成することもできます。
このレビューは次のようになります。
- 自動化
- 他の エージェント
- システム ルール
- または 人間
それはすべて、関与する リスク によって決まります。
エラーが重大であればあるほど、単一レイヤーの信頼性が低くなります。 安価で元に戻せるエラーであればあるほど、より多くの自律性を与えることができます。
人々を管理するということは、不完全なものを管理することを意味します。 AI も管理します。
ロジックは変わりません。変化するのは 不完全さの性質 です。
人間の場合、この間違いは、注意力散漫、疲労、エゴ、焦り、恐怖、混乱、または知識の欠如によって生じる可能性があります。 AI では、コンテキストの欠如、偏ったパターン、不十分な解釈、モデルの制限、または単に間違った生成によってエラーが発生する可能性があります。
しかし、どちらの場合でも、管理者の対応は似ています。
希望を持ってエラーと戦う必要はありません。 プロセスを使用してエラーに対処します。