イスタンブールのカフェで、28歳のミクスドメディアアーティストであるセルハン・テッキリチは、Zoomコールを通じて友人が初めて悲しみを感じた時のことを語るのを熱心に聞いていた。
フリーランスのAIトレーナーとして活動するテッキリチは、その日の午後に深い会話をするつもりはなかったが、それがフリーランス生活の本質であった。
テッキリチと彼の友人は、エロン・マスクが開発したチャットボット「Grok」のトレーニングのために、日常生活についてトルコ語で会話を収録していた。このプロジェクトは「Xylophone」というコードネームで、AIトレーニングプラットフォーム「Scale AI」が運営していた。766のトピックがリストアップされており、火星に住むことを想像することから、幼少期の最初の思い出を振り返ることまでが含まれていた。
「奇妙で不条理なものがたくさんあった」とテッキリチは振り返る。
「『もしあなたがピザのトッピングだったら、何になる?』というようなものもありました。」
この仕事は、彼がたまたま見つけ、愛するようになった仕事だった。昨年末、うつ病や不眠症が彼のアートキャリアを停滞させたとき、姉が彼にぴったりの求人情報を送ってくれた。
彼はテクノロジーに興味があり、家賃やアイスアメリカーノの習慣を維持するために役立つ仕事を探していた。この仕事での最良の週には、約1500ドルを稼いでおり、それはトルコではかなりの金額だった。
リモートワークは柔軟で、彼は生成AIの進化する世界で小さなが重要な役割を果たすことができた。
現在、何億人もの人々が生成AIを日常的に使用している。その多くは、チャットボットとコミュニケーションを取るたびに、同僚、セラピスト、友人、さらには恋人として扱っている。
これは、テッキリチのような人々がAIをより人間らしくするためにトレーニングし、報酬を得るために、大規模に雇われているためだ。データラベラーと呼ばれる彼らは、何時間もチャットボットの回答を読み、どれが役に立つか、正確か、簡潔か、自然に聞こえるかをテストする。
彼らの役割は、言語療法士、マナーの講師、ディベートのコーチのようなものである。
彼らが下す決定は、指示と直感に基づき、AIの振る舞いを細かく調整するのに役立ち、Grokがジョークを言う方法、ChatGPTがキャリアアドバイスを提供する方法、Metaのチャットボットが道徳的ジレンマを乗り越える方法を形成することになる。
「私たちは人間らしさの最良の部分を引き出すために、最悪の部分を見ることもある」とテッキリチは言う。
それゆえに、彼は今、AIのトレーニングを通じて目にすることになる「人間の暗い面」に対して混乱をきたしている。
データアノテーションの職に就くためには、LinkedInやRedditのフォーラム、または口コミを使って求人を探し始めることが一般的だ。
多くの人が、数つのプラットフォームに同時に応募し、自身の機会を増やそうとする。
オンボーディングが必要であり、膨大な書類作成、バックグラウンドチェック、専門知識を証明するオンライン評価が求められることが多い。
これらのテストは数時間かかり、正確性とスピードを測るものであり、ほとんどの場合、無給で行われる。
「私はバターをかき混ぜるためのロバだ。
それでいい。私は円を描きながら歩いてバターをかき混ぜる」とアメリカの契約者の一人は語る。
彼は過去1年間、Outlierでアノテーションの仕事をしてきた。Outlierは、何万人ものアノテーターと一緒に作業し、彼らは「過去1年だけで数億ドル」を稼いでいると主張している。
ノースウェスタン大学で経済学を学んでいるアイザイア・クウォン-マーフィは、アウトライヤーが最初のクラスの間にお金を稼ぐための簡単な方法に思えた。しかし、彼が2024年3月にサインアップした後、最初の課題を受け取るまでに6か月待たなければならなかった。
最終的に彼の忍耐が実を結んだ。最初の数のタスクは、モデルの数学スキルをテストするための大学レベルの経済学の問題を書くものや、モデルを危険な回答をしないように訓練するためのレッドチーミングタスクなど様々だった。
クウォン-マーフィは「薬の作り方や犯罪から逃れる方法」を教えてほしいというようなプロンプトを試すことになった。
「彼らはこれらのモデルに、そういうことをしないように教えようとしている」と彼は語る。「今、私がそれを捕まえられれば、長期的にはモデルをよりよくする手助けになります。」
そこから、アウトライヤーのプロジェクトポータルでの新しい課題が次々と入るようになった。彼がピーク時には、1時間あたり50ドルを稼ぎ、週間50時間働き、数ヶ月間続いたプロジェクトがあった。
彼は6ヶ月以内に5万ドル以上を稼ぎ、そのお金は春の卒業後にボストン・コンサルティング・グループでのフルタイムの仕事のためにニューヨークに移る費用をカバーした。
グアテマラ出身の40歳のアカウントマネージャーであるレオ・カスティーヨは、フルタイムの仕事と兼ねてAIアノテーターを続けている。
英語とスペイン語に堪能で、エンジニアリングの背景を持つカスティーヨは、アノテーションを追加収入を得るための現実的な方法として捉えた。
彼が最初の大きなプロジェクトを受け取るまでに8か月かかったが、Xylophone、テッキリチが取り組んでいたのと同じ音声データアサインメントが彼のOutlierワークスペースに現れたのは春のことだった。
彼は通常、妻と娘が寝た後の遅い時間にログインした。「10分間の会話ごとに8ドル」を支払い、Xylophoneは良い報酬をもたらした。
「私は1時間で4つのこれを達成できました」と彼は言った。
いい夜には、カスティーヨは約70ドルを得ることができた。
「チャットに参加するために人々が争いました。なぜなら、やればやるほど、多くの報酬を得ることができたからです。」
しかし、アノテーションの仕事は、不定期な収入を伴うこともある。
ルールやレートが変わり、一時的にプロジェクトが消えることもある。ある米国作業者は「アウトライヤーで働くのはギャンブルに似ている」と語った。
カスティーヨもクウォン-マーフィも、この不安定さに直面した。
3月には、クウォン-マーフィが受け取っていた一般プロジェクトの時給が引き下げられた。「ログインしたら突然、時給が50ドルから15ドルに下がった」と彼は言う。「理由もなしに」。
アウトライヤーがアノテーターにこの変更を通知したとき、発表は非常に曖昧だった。プラットフォームは単にスキルと報酬を再構成していると言った。
「でも、本当の説明はなかった。それが最もイライラした部分でした。それは突然起きました」と彼は続ける。
同時に、彼のダッシュボードにある他のプロジェクトの流れも鈍化した。「プロジェクトが減少し、残ったものも報酬が低かったのです。」
アウトライヤーの広報担当者は、報酬の変更はプロジェクト特有のものであり、各プロジェクトに必要なスキルによって決定されると説明している。
カスティーヨもプラットフォームで問題を抱え始めた。彼の最初のプロジェクトでは、彼はチャットボットとの1対1の会話で声を録音した。しかし、その後、アウトライヤーはXylophoneプロジェクトに3人から4人の契約者がZoomで話すことを求めるように変更した。
つまり、カスティーヨの評価は他の人のパフォーマンスに依存することになった。彼のスコアは急激に下がったが、彼は自身の作業の質が変わらなかったと主張した。
他のプロジェクトへのアクセスも減った。アウトライヤーの広報担当者は、グループパフォーマンスに基づく評価が「不公平に影響を及ぼす可能性がある」として個別評価に迅速に修正されたと述べている。
アノテーターたちは、不定期な課題だけでなく、心を揺さぶる内容にも直面している。
多くのアノテーターが、彼らが取り組んでいるプロジェクトの最終目的について透明性が欠如していることに不安を感じている。
ミシガン州の労働者権利擁護者であるクリスタ・パウロスキは、データアノテーターとして19年近く働いてきた。
彼女は2006年にアマゾンのメカニカル・タークでパートタイムのタスクを始め、2013年にはフルタイムに切り替えて、子育てをしながら柔軟に働けるようになった。
「最初は、データ入力や写真にキーワードを付けるような基本的なものでした」とパウロスキは振り返る。
しかし、2010年代半ばのソーシャルメディアの爆発や、AIが主流になると、彼女の仕事はさらに複雑で、ときには苦痛を伴うものへと変わった。
彼女は大規模なデータセットの顔をマッチングし、ユーザー生成コンテンツのモデレーションに携わった。彼女は、与えられたツイートの中から人種差別的なものをフラグ付けするよう指示された。しかし、一度、彼女は判断に苦しんだという。「私は中西部の田舎出身で、白人中心の教育を受けてきました。
だから、そのツイートを見て、私には人種差別的に見えませんでした」と彼女は言う。
彼女は一時は「人種差別ではない」とクリックしそうになったが、その内容を調べるうちに、スラングであったことに気づいた。「私はただ人種差別をシステムに流し込むところだった」と彼女は振り返る。
最近では、彼女はチャットボットに不適切な発言をさせようとする仕事をしている。
彼女はチャットボットを「壊す」たびに支払われるため、できるだけ挑発的で侮辱的なことを言うインセンティブがあった。それが彼女にとって辛いのは、時には、異常な内容を求められた場合であった。「ボットに殺人を提案させる、あるいは女性を抑圧する方法を教える、近親相姦を容認させるようにする」と彼女は思い出す。
アマゾンのメカニカル・タークの広報担当者は、プロジェクトの依頼者は、タスクが成人向けコンテンツに関与する際には明示的に表示し、該当タスクはその内容を閲覧することを選んだ作業者のみに見えるようにしていると述べている。
また、タスクを受け入れるかどうかは完全に作業者の自由であり、ペナルティなしでいつでも仕事を辞めることができるとも強調している。
テッキリチは、Outlierでの初めてのプロジェクトが「非常に暗いテーマ」を扱ったことを言っている。
彼は、AIが爆弾のマニュアル、化学兵器のアドバイス、または児童ポルノに関する発言をしないよう確認する仕事を行っていた。
「一つのチャットでは、男がラブストーリーを作り、その中に継父と8歳の子供が登場した」と、テッキリチは語る。
これは安全でない結果をテストするためのプロンプトに関連していたが、彼は「その一つのチャットには今でも怒りを覚えている」と言った。
パウロスキは、クライアントの秘密主義と仕事の道徳的グレーゾーンについても不満を抱いている。
特に、衛星画像や顔認識のプロジェクトに関わる際に、彼女は自分の仕事が善良な目的のために使われるのか、より悪意のある理由に使われるのかを把握できなかった。
プラットフォームはクライアントの機密性を理由にプロジェクトの最終目的を共有しないと主張し、そのため、パウロスキのようなフリーランサーは拘束力のある秘密保持契約を結ばされている。
「私たちは何をしているのかわからない。なぜこれをしているのかわからない」と彼女は言った。
「時には、検索エンジンを良くするのを手伝っているのか、それとも監視や軍事用途に利用されるのか考えざるを得ません」と続けた。
「良いか悪いか、何をしているのかはわからないのです。」
ワーカーと研究者は、データラベリング仕事が特に搾取的であると指摘している。これはテクノロジー企業がコストの安い労働者を求めて、労働者保護が弱い国に外注するためだ。
ナイロビ拠点のデータ保護責任者であり、アフリカコンテンツモデレーターの組織家であるジェームズ・オヤンゲは、2019年に国外でフリーランスとして働くことを始めた。
国際外交を学びながら、彼は最初に基本的なデータ入力作業をし、後にAIシステムのための転写や翻訳に移った。
彼は、数時間にわたって音声録音や会話を聞き、それを詳細に文字起こしする仕事をすることが多かった。
彼は、自分の異なる言語で、SiriやAlexaのような音声アシスタントがタスクを理解できるようにするための努力を行っていた。
「非常に単調で、特に給与を見たら厳しかった」と彼は回想する。アッペンからの支払いは1時間あたり2ドルだった。
オヤンゲは、週に1日か2日、このような作業を行って16ドル程度稼いでいた。
アッペンの広報担当者は、同社の料金は「ケニアの最低賃金の2倍以上」に設定されていると述べている。
他のプラットフォームには、複数の異なった角度からの自撮りをアップロードするよう求められるデータ収集作業も含まれ、彼はそれらの仕事を受けなかった。
数年後、彼は「もうやっていない方が良い」と思っている。
「データがどのように収集され、どのように処理され、誰と共有されているのか、作業者たちは通常わからない」と、オックスフォードインターネット研究所のポストドクトラル研究者であるジョナス・バレンテは指摘する。
「これは大きな問題です。これはデータ保護だけでなく、倫理的な観点からもも大きな問題です。作業者は、自分の作業がどのように使われるかに関する文脈をほとんど与えられません。」
今年の5月、バレンテは、データラベラーとクラウドワークプラットフォームの労働者の体験についての研究心「Fairwork Cloudwork Ratings」報告書を発表した。
776人の作業者が100カ国から調査を受けた結果の大部分は、自分の画像や個人データがどのように使われるのか全く知らなかった。
データアノテーションの未来も急速な変化にさらされている。
6月に、MetaはScale AIの親会社に49%の株式を143億ドルで取得した。
アウトライヤーのサブレディット(オンラインフィーリングの場)は、すぐにパニックに陥り、ダッシュボードが空白のスクリーンショットを明らかにしたり、契約者たちが自分が禁止されたか、ロックされたかと疑問を呈するなどした。
カスティーヨは「突然、私のステータスが『現在プロジェクトはありません。』に変わった。」と語る。
Metaの発表の後、Googleのプロジェクトで働いていた契約者は、彼の仕事は無期限に一時停止されたというメールを受け取った。
他の主要クライアントであるOpenAIとxAIも、Scaleとのプロジェクトを縮小し始めたことが報じられた。
彼らからのサポートに対する質問をした際、彼らは沈黙したり、役に立たない定型文で応答したと複数の契約者が述べている。
Scale AIの広報担当者は、プロジェクトの一時停止はMetaの投資とは無関係であると言っている。
プロジェクトに取り組んでいる人々はさらなる挑戦に直面した。彼らの指示は、Google ドキュメントに保存されており、その後、Business Insiderが報告したことによって機密情報が公開されたため、締め出された。
Scale AIは、プロジェクトのガイドラインやオプションに関するオンボーディングに公開のGoogleドキュメントをもはや利用していないと発表した。
プロジェクトは戻ってきたが、以前のレベルには達していないという。
OpenAI、Googleといった大手企業は、自社のAIトレーニングを内部で行いつつも、依然として空白を埋めるためにアウトライヤーのようなフリーランスに依存している。
一方で、より高度な「推論」モデルの出現は、ケニアやフィリピンのような国における安価な一般タスク労働者の大量雇用を減少させる方向に向かっている。
これらのモデルは、人間のフィードバックによる強化学習に頼る必要がなくなるため、アノテーターが少なくて済むからだ。
企業はより専門的かつ高額なタレントを求める傾向が高まっている。
AIトレーニングプラットフォームのMercorでは、最近のリスティングに、法律家が1時間105ドル、医者や病理学者が時給160ドルでプロンプトを書く仕事が上がっている。
クウォン-マーフィは、アウトライヤーでのわずか6か月での変化を目の当たりにした。「私が働いている間に、これらのモデルはますます賢くなっていきました。」彼は不安を感じるようになった。「いつ私たちはAIのトレーニングを終えるのか?いつ私たちはもう必要でなくなるのか?」
オヤンゲは、テクノロジー企業は必要不可欠な人材を引き続き必要とするだろうと考えている。
「人々がさまざまなデータをシステムに提供することで、この進歩が可能になる。
人々がいない限り、AIは基本的に何も革命的なことを話せない」と彼は言った。
テッキリチは、6月以来取り組むプロジェクトがないことを利用し、アートに再焦点を当てている。
もっと仕事があれば喜んで引き受けると考えているが、彼は自らが影響を与えてきた技術の行方に複雑な感情を抱いている。
「AIが私たちの生活にどこにでも入り込んでいることは、少し悲しいことです。」
「私は本当にAI楽観主義者ですが、現実の神聖さは保ちたい」と彼は語った。
画像の出所:businessinsider