Sat. Sep 20th, 2025

先週、ブルース・ハレル市長はシアトル市の新しいAI計画を発表しました。この計画は、テクノロジーセクターで現在進行中の人工知能(AI)ブームを活用し、市の業務や公共サービス、市民の参加にAIを統合することを目指しています。

しかし、批評家たちは公共サービスにおけるAIの使用の倫理的な影響や、公共職員への影響、環境に対する記録された危害について懸念を表明しています。

「AIは許可申請や住宅建設の加速、公共の安全の向上、シアトル市民へのサービスの応答性の向上、バリアを取り除くためのよりアクセス可能で平易な言語での対話を可能にするために活用されます」と計画は述べています。

この計画には、シティ職員向けのAIトレーニングプログラムと、学界、産業、コミュニティとのパートナーシップが含まれています。また、AIの定義は幅広く、高水準の性質から、しばしば具体性を欠いています。

また、市は情報技術部門(ITD)に新しいAIリーダーシップポジションを追加する予定です。

「我々は、責任ある人工知能の実施においてシアトルを全国のリーダーとして位置づけるために非常に意図的に取り組んでいる」とハレル氏は先週のプレスイベントで述べました。「これにより、我々の価値観に基づいた強い都市として位置付けられるだけでなく、港町、海洋都市、バイオテクノロジーリーダー、高度なテクノロジーのリーダーとしても際立つことができます。」

市は、シティ職員のAI使用に関する規則を定めた新しい関連AIポリシーも発表しました。このポリシーは、職員がAIツールを使用して生成した画像、ビデオ、ソースコードへの帰属を要求しており、AIによって生成されたテキストが最終製品に「実質的に使用される」場合にも帰属が必要です。

また、ポリシーには、AIを新たに使用する前に人種的公平性ツールキットを実施することが求められており、各部門が調達前に特定のツールの環境への影響を理解するよう努めることが求められています。これらのルールが実際にどのように機能するのか、また特定のAIの使用ケースを思いとどまらせるかどうかは不明です。

最高技術責任者(CTO)であるロブ・ロイドは、このポリシーの施行を担当しています。

シアトルの多くのAIパイロット

市はこれまでに42件のAIパイロットを実施しており、そのうち24件が現在進行中です。

18件の完了したパイロットの大半は「一般」用途として指定され、Fathom AI、Beautiful.ai、Otter.ai、Hootsuite、AI Calendarなど、基本的な機能を果たすAIアプリケーションを含んでいます。

シアトル警察署(SPD)の完了したパイロットの一つは、公開開示のためのボディカメラ映像の赤外線処理にCaseGuardをテストしました。シアトル消防局(SFD)は、非緊急呼び出しの音声分析を行う「Corti」を試験し、「公共安全トリアージ、文書化、品質改善およびトレーニング」にも利用しました。

現在進行中の24件のパイロットのうち、11件はITDで実施されています。シアトル建設・検査部局(SDCI)内で4件が運営されており、許可申請プロセスを効率化および迅速化することを目指しています。また、シアトル交通局(SDOT)は、工学的改善によって事故リスクを減少させることができる交差点を特定するためのソフトウェアをテストしています。

ITDスピーカーのメーガン・アーブ氏は、コミュニティ支援応答およびエンゲージメント(CARE)部門も、呼び出し優先順位データを分析するためのAIツールの使用を検討していると語りましたが、これはまだアクティブなパイロットではありません。

SPDでは2件の新しいパイロットがあります。一つはAmazon Q/Bedrockビジネスチャットボットで、「一般的なビジネス、’低リスク’な使用ケース」に使用される予定です。もう一つはC3 AIとの提携で、ITDによれば、ポリシー情報をより容易に参照するために使用されています。アーブ氏は、C3 AIは現在、基本的な犯罪調査を補助するツールとしては使用されていないと述べています。

「AIが新しい技術であるため、SPDはこれらのツールの使用に対する責任あるガバナンスに取り組んでいます」とアーブ氏はUrbanistに話しました。「このプロセスの一環として、部門は調査結果を要約するためのプラットフォームのテストを行っており、情報をより理解しやすい形で提示するのに役立っています。」

Amazonは今夏、Bedrockの公共安全応用の可能性についてのブログ記事を発表し、騒音苦情を受け取り、自動的に事件報告書を生成するツールとしてこのツールを紹介しました。記事に載った他の使用例には、負傷のない交通事故の報告、放棄された車両の報告、および落書きや破壊行為の報告が含まれています。

ITDは、Urbanistに現在の具体的な使用例を共有しませんでした。

Amazon AIパイロットについてさらに尋ねられた際、ハレル市長のスポークスパーソンであるベン・ダルジェティ氏は、SPDが現在この技術のためのポリシーと技術的ガードレールを開発中であると述べました。

「この技術の将来的な使用は、犯罪を予防するために複雑なトレンドやパターンを特定することに影響を与える可能性がありますが、SPDがこれを安全に運用するには多くの作業が必要です」とダルジェティ氏は言いました。

この説明は、AIによる予測ポリシングに危険に近い状況を示しています。研究によれば、これは少数民族コミュニティのターゲットを不均等にする可能性があることが示されています。AIツールで使用されるデータ次第では、このバイアスがさらに悪化する可能性があります。

アメリカ合衆国上院の多くの議員は2024年初めに、予測ポリシングプロジェクトへの助成金提供を中止するようアメリカ合衆国司法省に要請する手紙を送りました。

「予測ポリシング技術が犯罪を減少させないという重要な証拠が蓄積されています。むしろ、それはアメリカの有色人種に対する不平等な取り扱いを悪化させます」と議員たちは書きました。そして、その後「この種のシステムの継続的な使用は危険なフィードバックループを生み出します。バイアスのある予測が特定の少数民族の近隣での過度な停止や逮捕を正当化するために使用され、統計が不均等に偏るのです。」と続けました。

一方、ITDの最近の年間学習会議では、警察の事件記録管理のためのAIソフトウェアインターフェースを示すOracleの執行役員が2人登壇しました。このソフトウェアは、音声およびビデオファイルのAI転写や、テキストの要約を含んでいました。

「ポリシングの文脈においては特に問題が多く、元々の音声録音から移行する場合はさらに難しいです」と、計算言語学を専門とするワシントン大学の言語学教授エミリー・ベンダー博士は述べました。

ベンダー氏は、AI転写技術は使用される言語が「権威ある基準」と異なるときにあまりうまく機能せず、結果的にエラーが増加する可能性があると説明しました。AIモデルは、トレーニングに使用されるデータにバイアスを持っています。

「生成AIシステムは、即時の入力と事前トレーニングデータに基づいてもっともらしいテキストを出力するように設計されており、特に文脈において、事実に基づかない追加の詳細を出力する可能性が非常に高いです」とベンダー氏は言います。

警察官は事後に転写やその他のエラーを訂正する時間やスペースを与えられない可能性があります。そのようなシステムは責任を損ない、生成された報告書は、実際にはその場にいる警官による個人的なアカウントではなく、警察の関与によるものとして法廷に提出される可能性があります。

最近、SPDの市民とのコミュニケーションにおける生成AIの使用についての懸念が高まりました。PubliColaは、SPDがAIを使用して公共向けの資料、ブログ投稿、そして新任のチーフ・ショーン・バーンズからの声明を生成したとする匿名の市民からの苦情を報告しました。よく知られたAI検出ツールが上記の例を完全または部分的にAIによって生成された可能性があると示しましたが、SPDは「実質的な形で生成AIをコミュニケーションで使用したことはない」と否定しました。

この例は、市のAIポリシーの弱点を示しており、AIテキスト生成の実質的な使用がどのようなものであるかについて曖昧です。もしSPDの上記のコミュニケーションが本当にAIツールを用いて生成されたのであれば、それを認める帰属が必要です。また、PubliColaが報じたように、OPAはこの苦情を「スーパーバイザーアクション」として取り扱い、訓練やコーチング以外の結果はありませんでした。

キャスケードPBSによると、エベレットでは、AI生成テキストへの帰属を要求するAIポリシーを採用した後でも、市の職員が必ずしもガイドラインに従っていないことが報告されています。

AIツールが誤った情報を提供することがある(時には「幻覚」と呼ばれる)ため、AIの使用は政府への信頼をさらに損なう可能性があります。これは、コミュニティとの信頼を再構築しようとしているSPDにとって特に問題です。AI生成のテキストには、政府のコミュニケーションに適した使用ケースは存在しないと主張する批評家もいます。

「合成テキストには適切な使用ケースはありません」とベンダー氏は言います。「人々が言葉を使う方法を模倣するように設計されたシステムの設立は、害を与えるだけです。」

市のAI使用に関する他の懸念

エベレットのような都市の例は、市のAI計画の実施が実際にどうなるかに疑問を投げかけています。

オープンAIの最新のチャットボットモデルであるChatGPT-5が、発表時にアメリカ合衆国の正確な地図を描けず、アメリカの大統領の正確なリストを作成できなかったことがあったため、生成AIへの批判が加速しています。この技術の将来についての疑問が浮上しています。

AIの初期の導入段階において、AIはその環境への影響について批判も受けています。AIを支えるデータセンターは大量の淡水を冷却に必要としており、ブルームバーグニュースは、2022年以降に建設されたデータセンターの3分の2が既に水ストレスを経験している地域にあることを見出しました。データセンターの電力需要も増加することが予想されており、マッキンゼーは、アメリカ合衆国における電力需要が今後5年で現在の容量の3倍になると書いており、化石燃料への依存が増加しています。

AIが人間の仕事を簡単に置き換えられるという約束は、実践では必ずしも実現していません。たとえば、スウェーデンの企業Klarnaは、2022年に約700人の従業員を解雇し、AIに置き換えることを決定しましたが、今春には人間の従業員を再雇用することを決めました。

ハレル氏は、市がAIを使用して職員を置き換えるつもりはなく、労働組合のリーダーを引き続き情報提供することを約束しました。

「我々は、労働パートナーと協力して取り組んでいます」とハレル氏は述べました。「AIによって置き換えられる可能性のある特定のタスクを検討する際、我々は常に、人間中心のアプローチを重視し、労働パートナーと共に公開・透明な議論を行います。」

AI計画は、「知的システムがルーチンまたは管理業務を自動化し始めると、職務は確かにより高価値の、クリエイティブな、人向けの、意思決定責任へと焦点を移します。」と述べています。

The Urbanistは、PROTEC 17に連絡を取り、同市の多くの労働者を代表する労働組合です。「我々は最近市のAI計画を把握し、PROTEC17メンバーへの影響を分析する情報を収集しています」とその執行ディレクターケレン・エステヴニンは述べました。「我々はAIが労働力に与える影響、特に職位の減少に対する懸念を抱えていますが、同時に労働者の業務をサポートし、労働環境を改善できる安全で効果的なAIの賢い使用法を探期しています。」

市の職員への影響を与える可能性があるAIの利用は、労働者の職能を低下させることにも繋がる懸念があります。最近のThe Lancetの論文では、ポリープの検出にAIを定期的に使用した消化器内科医が6か月以内に職能を低下させ、その後のAIなしでの特定のポリープの検出率が28%から22%に低下したことが示されています。

今夏のMITメディアラボは、エッセイ作成に大規模な言語モデル(LLM)を使用した場合には「認知的コストがかかる」とし、単独で脳や検索エンジンを使用した場合と比較して認知的な関与が弱くなることを報告しました。

「パイロットを実施し、評価するというアイデアがあるのであれば、市は労働力の技能低下や提供可能なサービスの質に与える影響を評価するべきです」とベンダー氏は主張します。

公共部門におけるAI使用時の責任問題についても疑問があります。ハレル氏とAI計画は、これらのツールを使用する際には必ず人間の介在を確保することを明確にしていますが、これらの職員はしてAIのエラーの責任を取らされる可能性があり、却って大きな組織を守る道具として使われることになるかもしれません。

「時には、ループ内の人間が、何かが間違ったときに影響を受け、実際には自動化を選択した大きな組織を守っていることになります」とベンダー氏は警告します。

AIの導入における推進

それにもかかわらず、ハレル市長はシアトル市へのAIの組み込みに熱心です。

「人工知能はシアトルにおいて単なる流行語以上のものであり、人々のためにより良い都市を築くための強力なツールです」とハレル氏は述べました。「この技術を意図的かつ責任をもって使用することによって、我々は国家のリーダーとしてのAI経済を育成し、住民のための雇用と機会を創出し、すべての人にとってより革新的で公平かつ効率的な未来の実現に向けて前進しています。」

昨年、ハレル氏は米国国土安全保障省の人工知能安全保障委員会に招待されました。その目的は、インフラの利害関係者がAIを責任を持って活用し、AIに関連する重要サービスへの混乱を防ぎ、準備するための推奨事項を策定することです。ハレル氏はまた、米国市長会議の技術とイノベーションに関する常任委員会の委員長も務めています。

ハレル氏は今年2月、ダウンタウン・シアトル協会が主催したダウンタウンの状態に関するイベントで、サイバーセキュリティやAIに対する懸念について語る一方で、トランプ大統領のキャンペーンに資金を提供した右派技術リーダーを称賛するかのような発言もしました。

「我々は、現在の大統領がその周りに非常に賢い革新者たちを取り囲んでいることを知っています」と彼は述べました。「アンドリーセンやピーター・ティール、デイビッド・サックス、イーロン・マスクのような名を挙げるとき、これらは非常に賢い革新者たちです。」

皮肉なことに、マスクの取り組みは、政府におけるAI LLMの使用の強力な警戒事例を提供しています。彼とDOGEの効率の目標にもかかわらず、The Atlanticによると、米国政府は今年の2月と3月に前年の同じ月よりも多くのお金を使っています。

DOGEと連携してLLMを連邦レベルで導入する役割が、契約したモデルをコントロールする裕福な技術CEOに無前提の権力を与えています。具体的には、マーク・ザッカーバーグ(メタ)、ピーター・ティール(パランティア)、イーロン・マスク(xAI)です。現在、連邦政府で使用されているAIシステムは、責任の低下と透明性の欠如、巨大な監視国家の構築をもたらしています。

対照的に、ハレル氏はシアトルを責任あるAIの実施のリーダーとして売り込んでいます。

「我々がAIポリシーのために設定したコントロールを見てください。我々の計画は、それが責任を持って使用されるべきであるというものです」とロイド氏は述べています。「そこにはセキュリティプロセスがあり、プライバシーの考慮があります。我々は、市が市の課題を解決できるようになるためのAIを導入すると言っています。」

AI計画は、市全体のAIガバナンスグループの設立を求めており、このグループはAI計画の方向性や優先事項に関して意見やガイダンスを提供する責任を担います。このグループは、AIリーダーシップポジションが充足され次第、今秋に招集される予定です。

人権局はAI計画の策定には参加しませんでしたが、ガバナンスグループには参加を求められるとアーブ氏は述べました。

ベンダー氏は特に、都市が自動化したいことの明確化、合成テキスト機械の回避、および明確な責任を提供する適切な使用ケースの選定が重要であると述べました。

一方で、シティは構造的な予算赤字に直面しているため、AIツールを一時的な応急処置として使用したくなる誘惑があるかもしれません。しかし、その戦略はより大きな格差を生む可能性が高いです。

「劣悪に供給された市のサービスからオプトアウトする能力を持つのは裕福な人々です」とベンダー氏は述べています。「そして、残りの人々は我々が共同で行っているものに縛られることになります。だったら、なぜ上手くやらないのですか?」

画像の出所:theurbanist