OpenAIのアプローチは、社内プレゼンテーションで概説されているように、契約社員に対し、過去の職務内容を詳細に説明し、文書、プレゼンテーション、スプレッドシート、画像、コードリポジトリなど、具体的な業務例を提供するよう求めるものです。同社は、契約社員に対し、これらのファイルをアップロードする前に、機密情報や個人を特定できるデータを削除するよう助言しており、このプロセスを支援する「ChatGPTスーパースター・スクラビングツール」を提供していると報じられています。
この慣行は、法曹界で議論を呼んでいます。知的財産弁護士のエヴァン・ブラウン氏はWiredに対し、この手法を採用するAI研究所は重大なリスクにさらされていると語りました。このアプローチは、何が機密情報に該当するかを判断する契約社員の判断に大きく依存しており、潜在的な脆弱性を生み出す要因となっています。OpenAIの広報担当者は、この件に関するコメントを控えています。
高品質なトレーニングデータへの要求は、AIモデルの高度化によって推進されています。これらのモデルは、多くの場合ニューラルネットワークに基づいており、学習とパフォーマンスの向上のために膨大な量のデータを必要とします。データは、モデルの内部パラメータを調整するために使用され、パターンを認識し、予測を行い、テキスト、画像、またはコードを生成することを可能にします。トレーニングデータの品質は、AIモデルの精度と信頼性に直接影響します。
契約社員が提供する業務サンプルを使用することは、いくつかの倫理的および法的問題を提起します。1つの懸念は、データスクラビングツールを使用しても、機密性の高い企業情報が意図せずに開示される可能性があることです。もう1つは、アップロードされた資料の著作権と所有権の問題です。契約社員が共有する権利のない業務をアップロードした場合、法的紛争につながる可能性があります。
この傾向の長期的な影響は重大です。AIモデルがホワイトカラーのタスクを自動化する能力を高めるにつれて、さまざまな業界で雇用が失われるリスクがあります。AI搭載ツールが普及するにつれて、執筆、編集、データ分析などの役割における人的労働者の需要が減少する可能性があります。この変化はまた、既存の不平等を悪化させる可能性があり、AIシステムを操作および管理するスキルを持つ人々は、変化する雇用市場でより有利な立場に立つ可能性があります。
このイニシアチブの現状は不明です。これまでに何人の契約社員が参加したか、またはどのような特定の種類の業務サンプルが収集されたかは不明です。次のステップでは、法務専門家やプライバシー擁護者からの継続的な監視、および潜在的な規制監督が必要になる可能性があります。その結果は、AIトレーニングデータの慣行と、人工知能の開発を取り巻く倫理的考慮事項の将来を形作る可能性があります。
Discussion
Join the conversation
Be the first to comment