OpenAIとトレーニングデータ企業Handshake AIが、第三者の契約業者に対し、過去および現在の職務で完了した実際の業務事例をアップロードするよう要請していると報じられており、知的財産とデータプライバシーに関する懸念が高まっています。Wiredの報道によると、この取り組みは、AI企業が契約業者を活用して高品質なトレーニングデータを生成し、最終的にはより多くのホワイトカラー業務を自動化するという、より広範な戦略の一環であるようです。
OpenAIの要請は、社内プレゼンテーションで概説されており、契約業者に対し、他の仕事で実行したタスクの詳細と、ドキュメント、プレゼンテーション、スプレッドシート、画像、コードリポジトリなど、業務の具体的な例を提供するよう求めています。同社は契約業者に対し、これらのファイルをアップロードする前に、機密情報および個人を特定できる情報を削除するよう指示し、そのために「ChatGPT Superstar Scrubbing tool」を紹介しています。
実際のデータを使用してAIモデルをトレーニングする手法は、ますます一般的になっています。これらのモデル、特にOpenAIが開発したような大規模言語モデル(LLM)は、パターンを学習し、首尾一貫した関連性の高い出力を生成するために、膨大な量のデータを必要とします。AI開発者は、実際の業務の多様な例でトレーニングすることにより、モデルが複雑なタスクを理解し、自動化する能力を向上させることを目指しています。
しかし、このアプローチは重大な法的および倫理的な問題を提起します。知的財産弁護士のエヴァン・ブラウン氏はWiredに対し、この方法を採用しているAI研究所は、機密情報を適切にスクラブする契約業者の信頼性に大きく依存しているため、かなりのリスクを冒していると語りました。機密データの偶発的または意図的な開示の可能性は、大きな懸念事項です。
実際のデータの使用は、同意とプライバシーに関する疑問も提起します。OpenAIは契約業者に対し、個人を特定できる情報を削除するよう指示していますが、特に業務に固有の識別子や機密情報が含まれている場合、データを完全に匿名化することが常に可能とは限りません。この方法でデータが使用される個人の影響は、まだ完全には理解されていません。
AIによるホワイトカラー業務の自動化の推進は、効率の向上とコスト削減の可能性によって推進されています。しかし、それはまた、雇用の喪失と仕事の性質の変化に関する懸念も提起します。AIモデルがこれまで人間が行っていたタスクを実行できるようになるにつれて、この技術的変化の社会的および経済的影響を考慮することが重要です。
現在、OpenAIとHandshake AIが、データ収集慣行を取り巻く法的および倫理的な懸念にどのように対処しているかは不明なままです。両社はまだこの件に関する公式声明を発表していません。このアプローチがAI業界と労働力に及ぼす長期的な影響は、まだ見られていません。
Discussion
Join the conversation
Be the first to comment