Wed. Aug 13th, 2025

2023年、東部ペンシルベニア交通局(SEPTA)は、フィラデルフィアで新たな違反取締りツールを試験導入しました。それは、バスに取り付けられたAIカメラです。

その結果は直ちに現れました。70日間で、カメラは36,000台以上の車両がバスレーンを妨害しているのを検知しました。

この試験結果により、SEPTAはバス路線の障害に関する貴重なデータを得ることができ、これらの問題を解決するための技術の役割についての洞察を深めました。

2025年5月、SEPTAとフィラデルフィア駐車局は、同プログラムを市全体で正式に開始しました。150台以上のバスと38台のトロリーが、このAIシステムを搭載し、バスレーンを妨害する車両のナンバープレートをスキャンすることができます。

このシステムは、コンピュータビジョン技術を使用して、バスレーンを妨害している車両を特定し、ルールを破っている車両のナンバープレートをスキャンします。

もしシステムが違反の可能性を検出した場合、人間のレビュアーが確認を行い、その後に違反切符が発行されます。

シティセンターでは76ドル、その他の地域では51ドルの罰金が科されます。

この導入は、SEPTAが213百万ドルの予算不足に直面し、サービスの削減や運賃の引き上げを余儀なくされている中で行われました。

私は、ドレクセル大学のルボー・ビジネススクールにおける情報システムの教授であり、応用AIとビジネス分析センターの学術ディレクターです。当センターの研究は、組織がAIをどのように活用し、それが信頼、公平性、説明責任にどのように影響するかに焦点を当てています。

最近、当センターは、テクノロジー、金融、ヘルスケア、製造、政府などの業界から454人のビジネスリーダーを対象に調査を行いました。この調査では、AIの使用が迅速に導入されることが多く、その成功を確実にするためのガバナンスが不足していることが分かりました。

特に公共部門の組織において、効率と監視のギャップがよく見られるという結果が得られました。

そのため、SEPTAはAIを活用した違反取締りシステムを慎重に管理し、公共の信頼を得ると同時にリスクを最小限に抑えることが重要だと私は考えています。

公平性と透明性についてですが、車両がバスレーンを妨害すると、交通が滞り、結果的に遅延が発生します。この遅延は、人々の一日を台無しにし、乗客が時間通りに目的地に到着できなくなる原因となります。

そのため、AIによる取締りがバスレーンをクリアに保つことに寄与すれば、それは勝利です。バスは迅速に移動し、通勤はスムーズになります。

しかし、問題があります。良い意図はあっても、システムが不公平または信頼できないと感じられる場合、望む結果にはつながりません。

私たちの調査でも、回答した組織の70%以上が自分たちのデータを完全に信頼していないことが示されています。公共サービスの文脈において、これは警告サインです。

信頼できるデータがなければ、AIを使用したチケット発行が誤って発行された取り締まり、返金が必要なミス、エラーを修正するために失われるスタッフの時間、さらには法的課題などの高コストの失敗につながる可能性があります。

公共の信頼が重要です。人々がプロセスを正確で透明であると見なすとき、違反を遵守し、罰則を受け入れる可能性が高まります。

さらに、私たちの調査から興味深い発見がありました。28%の組織のみが、十分に確立されたAIガバナンスモデルを持っていると報告しています。

ガバナンスモデルは、AIシステムが信頼できるものであり、人間の価値観と整合していることを確保するためのガードレールです。

これは、民間企業がAIを使用する場合でも懸念すべき事態ですが、公共機関であるSEPTAがドライバーのライセンスプレートを調査し、チケットを送付する際には、さらに高い公平性と透明性が求められます。

AIラベル効果について考えてみましょう。「この取締りシステムは赤信号通過やスピードカメラと同じではないか?」と言われるかもしれません。

技術的には、はい。システムは規則違反を検出し、人間が証拠をレビューした後に違反切符が発行されます。

しかし、「AI」と名付けるだけで、その認知は変わります。

これをフレーミング効果と言います。研究によると、ペーパーを採点するシステムでも、従業員を雇うシステムでも、AIと呼ばれると人々はより懐疑的になります。

同じプロセスでも、AIが言及されただけで信頼が失われるのです。このような認識は、公的機関がAIベースの取締りを透明性、可視的な安全策、ミスに挑戦する簡単な方法と結びつける必要があることを示唆しています。

私たちは、ニューヨーク市のメトロポリタン交通局においてAIカメラが何千件もの誤った駐車違反券を発行した際に、システムの誤動作によって信頼がどれほど速く損なわれるかを目の当たりにしました。

この種のエラーが稀に発生しても、それはシステムへの公共の信頼を損なう可能性があります。

信頼をシステムに組み込むことが重要です。経済協力開発機構(OECD)は、数十カ国でAI政策基準を設定する国際機関で、AI駆動の意思決定がどのように行われるかを理解し、間違いを挑戦するための明確でアクセス可能な方法がある場合、人々がこれらの決定を最も受け入れることを示しています。

要するに、AIによる取締りツールは、人々のために機能し、単に上に存在するものではない必要があります。

SEPTAにとって、以下のような取り組みが考えられます:

– バスレーンの明確なルールと例外を公開し、人々が何が許可されているかを認識できるようにする。

– 違反が発生した際、必ずフィラデルフィア駐車局のスタッフがレビューを行うなど、安全策を説明する。

– 管理レビューと異議申し立ての権利を含むシンプルな異議申し立てプロセスを提供する。

– 違反や異議申し立てがどのように処理されるかといった執行データを共有する。

これらのステップは、システムが公平であることを示し、公共サービスとしての信頼を築くのに寄与します。

画像の出所:theconversation