Mon. Aug 11th, 2025

2023年、フィラデルフィアのSEPTA(南東ペンシルベニア交通局)は、新たな監視ツールを導入し、AIを活用したカメラを7台のバスに搭載して運用を開始しました。

この試みは瞬時に成果を上げ、わずか70日間でカメラが36,000台以上の車両をバスレーンからの違法駐車として指摘しました。

このパイロットプログラムは、バス路線の妨害に関する貴重なデータを提供し、技術がこれらの問題に対処する役割についての洞察を与えました。

2025年5月、SEPTAとフィラデルフィア駐車局は、同システムを市全体に正式に展開しました。

これにより、150台以上のバスと38台のトロリーが同様のAIシステムを導入し、違反の可能性のある車両のナンバープレートをスキャンして監視する体制が整いました。

このシステムは、コンピュータビジョン技術を使用してバスレーンを塞ぐ車両を検出し、違反を指摘します。

違反が flags された場合は、人間のレビュアーが確認した後に罰金が発行されます:センターシティでは76ドル、その他の地域では51ドルです。

これらの取り組みは、SEPTAが213百万ドルの予算不足に直面している中で行われ、サービスの削減や運賃の引き上げが迫る状況において行われました。

私は、ドラクセル大学のレボー・カレッジ・オブ・ビジネスの応用AIとビジネス分析センターの学術ディレクターとして、組織がどのようにAIを利用しているか、その結果としての信頼性、公平性、説明責任に焦点を当てた研究を行っています。

最近、私たちのセンターが行った調査では、テクノロジー、金融、ヘルスケア、製造業、政府などの業界から454名のビジネスリーダーを対象に、AIの使用がしばしば必要なガバナンスよりも早く導入されていることがわかりました。

公共部門の組織において、この効率性と監視の間のギャップは特に目立ちます。

そのため、SEPTAは、AI監視システムを慎重に管理し、公衆の信頼を得るとともにリスクを最小限に抑えることが重要だと考えています。

バスレーンを塞ぐ車両は交通を混雑させ、その結果、乗客に遅延を引き起こします。

こうした遅延は、乗客の生活を乱し、接続を逃したり、仕事に遅刻したりする原因となります。

その結果、乗客は交通機関に信頼を持てなくなることがあります。

したがって、AIによる監視がこれらのレーンをクリアに保てるのなら、それはwin-winのシナリオとなります。

バスがより早く動き、通勤時間が短縮されるからです。

しかし、問題は良い意図があっても、システムが不公平または信頼できないと感じられれば、それは無意味であるということです。

調査によれば、調査対象の70%以上が自組織のデータを完全には信頼していないことが分かりました。

公共の監視において、交通機関や駐車管理当局が関与する場合、それは警告信号となります。

信頼できないデータがあれば、AIを用いたチケット発行は、誤って発行された違反通知や、訂正作業にかかるスタッフの時間、さらには法的な挑戦といった costly mistakes に繋がる可能性があります。

公衆の信頼はここで非常に重要です。人々がプロセスを正確で透明であると認識すると、ルールを守り、罰則を受け入れる可能性が高くなります。

また、調査の結果、わずか28%の組織が確立されたAIガバナンスモデルを持っていることが明らかになりました。

ガバナンスモデルは、AIシステムが信頼できるものであり、人間の価値観に沿っていることを確保するためのガードレールです。

これはプライベート企業がAIを使用している場合でも懸念されますが、SEPTAのような公共機関が運転者のナンバープレートを監視し、チケットを発行する場合、そのリスクはさらに高まります。

公共の監視は法的権限を伴い、そのためにはより高いレベルの公平性と透明性が求められます。

では、今回のチケットシステムは、赤信号やスピードカメラと同じではないかと言う人もいるかもしれません。

技術的には、確かにそうです。

このシステムはルール違反を検出し、違反が発生する前に人間が証拠をレビューレビューする点で似ています。

しかし、単にその技術をAIと呼ぶだけで、人々の認識が変わることがあります。

これをフレーミング効果と呼びます。

AI駆動と呼ぶことで、人々の信頼は低下することが示されています。

調査によれば、システムがペーパーを採点したり、従業員を採用したりする場合でも、AIが使われていると聞くだけで人々は信頼を持たなくなります。

彼らは「AI」と聞いて機械が判断を行っていると考え、欠点を探し始めます。

AIが正確であると思っていても、信頼のギャップは埋まることがありません。

この認識は、公共機関がAIを基にした監視を透明性のある制度とし、目に見える保障とミスを挑戦できる簡単な方法を整備する必要があることを意味します。

こうした措置は、AIによる監視が公正でアカウンタブルであることを示し、チケット発行機としてではなく、信頼できる公共サービスとして人々の心に受け入れられる手助けとなるでしょう。

私たちは、何がうまくいかないか、またAIに基づく監視システムが故障した場合にどれほど早く信頼が崩れるかを見てきました。

2024年末には、ニューヨーク市の大都市交通局(MTA)のAIカメラが数千件の駐車違反チケットを誤って発行し、その中には実際にはルールに従って合法的に駐車した900件近くの事例が含まれていました。

これらのエラーが稀であったとしても、それはシステムに対する公共の信頼を損なう可能性があります。

OECD(経済協力開発機構)は、AIに基づく決定を人々が受け入れやすくなるためには、そうした決定がどのように行われるかを理解し、ミスの挑戦を行える明確でアクセス可能な方法が必要であると指摘しています。

要するに、AI監視ツールは、人々のために機能するべきであり、単に彼らの上で動作するものではありません。

SEPTAにとって、これは次のような措置を意味する可能性があります。

・バスレーンのルールと例外を明確に公表し、人々が何が許可されているのかを理解できるようにする。

・違反が発生する前に、すべてのバスカメラ違反がフィラデルフィア駐車局のスタッフによって確認されるという保障を説明する。

・管理レベルでのレビューと不服申し立ての権利を持つ簡単な不満申し立てプロセスを提供する。

・違反件数や不服申し立ての処理状況など、処罰に関するデータを共有する。

これらの措置は、システムが公正でアカウンタブルであることを示すものであり、チケット発行機ではなく、信頼できる公共サービスとして受け入れられるよう助力します。

画像の出所:metrophiladelphia