وفقًا لتقرير نشرته Wired، يُفيد بأن OpenAI وشركة بيانات التدريب Handshake AI تطلبان من المتعاقدين الخارجيين تحميل أعمال حقيقية أُنجزت خلال وظائف سابقة وحالية. يبدو أن هذا الطلب جزء من استراتيجية أوسع بين شركات الذكاء الاصطناعي للحصول على بيانات تدريب عالية الجودة، بهدف تمكين نماذجها من أتمتة المزيد من مهام ذوي الياقات البيضاء.
وفقًا للتقرير، توجّه مواد العرض التقديمي لـ OpenAI المتعاقدين إلى تفصيل المهام التي أُنجزت في الوظائف السابقة وتحميل أمثلة لمخرجات العمل الفعلية، مثل مستندات Word وملفات PDF وعروض PowerPoint التقديمية وملفات Excel والصور ومستودعات التعليمات البرمجية. يُفيد بأن الشركة تنصح المتعاقدين بإزالة المعلومات السرية والشخصية التعريفية قبل تحميل هذه الملفات، وتوجههم إلى "أداة تنظيف ChatGPT Superstar" لهذا الغرض.
تثير هذه الممارسة مخاوف بشأن حقوق الملكية الفكرية. صرح إيفان براون، محامي الملكية الفكرية، لـ Wired بأن هذا النهج يمثل مخاطر كبيرة على مختبرات الذكاء الاصطناعي، لأنه يعتمد بشكل كبير على جدارة المتعاقدين بالثقة لتنظيف البيانات الحساسة بشكل صحيح.
يعكس هذا التوجه نحو بيانات العالم الحقيقي الطلب المتزايد على مجموعات بيانات تدريب عالية الجودة لتحسين أداء وقدرات نماذج الذكاء الاصطناعي. تتطلب هذه النماذج، وخاصةً نماذج اللغة الكبيرة (LLMs) مثل سلسلة GPT الخاصة بـ OpenAI، كميات هائلة من البيانات للتعلم والتعميم بفعالية. من خلال التدريب على عينات عمل أصلية، يأمل مطورو الذكاء الاصطناعي في إنشاء نماذج يمكنها تكرار وأتمتة المهام المعقدة بدقة أكبر.
ومع ذلك، تثير هذه الاستراتيجية أيضًا أسئلة أخلاقية وقانونية. إن استخدام المعلومات المحمية بحقوق الطبع والنشر أو السرية، حتى لو كانت مجهولة المصدر، يمكن أن يؤدي إلى دعاوى قضائية محتملة والإضرار بسمعة الشركة. هناك أيضًا مخاوف بشأن احتمال وجود تحيز في البيانات، مما قد يؤدي إلى إدامة نتائج تمييزية إذا لم يتم معالجتها بعناية.
الآثار الطويلة الأجل لاستراتيجية جمع البيانات هذه كبيرة. إذا كانت نماذج الذكاء الاصطناعي قادرة على أتمتة نطاق أوسع من وظائف ذوي الياقات البيضاء بنجاح، فقد يؤدي ذلك إلى تغييرات كبيرة في سوق العمل، مما قد يؤدي إلى إزاحة العمال في مختلف الصناعات. لا يزال مدى هذا التأثير غير مؤكد، لكن الخبراء يراقبون عن كثب التطورات في الذكاء الاصطناعي وعواقبها المحتملة على المجتمع.
لم تصدر OpenAI بعد بيانًا رسميًا بشأن التقرير. من المرجح أن تخضع تصرفات الشركة لتدقيق من قبل المنظمين والمراقبين في الصناعة مع استمرار الجدل حول أخلاقيات الذكاء الاصطناعي وخصوصية البيانات في التطور.
Discussion
Join the conversation
Be the first to comment