En septembre, OpenAI a lancé un nouveau processus d'évaluation visant à comparer les performances de ses modèles d'IA avec celles de professionnels humains dans divers secteurs. L'entreprise considère cette comparaison comme un indicateur crucial de ses progrès vers la réalisation d'une intelligence artificielle générale (IAG), définie comme un système d'IA capable de surpasser les capacités humaines dans la plupart des tâches économiquement intéressantes.
Un document confidentiel d'OpenAI stipulait : « Nous avons engagé des personnes de différents métiers pour nous aider à collecter des tâches réelles calquées sur celles que vous avez effectuées dans le cadre de votre emploi à temps plein, afin de pouvoir mesurer les performances des modèles d'IA sur ces tâches. Prenez des éléments existants de travaux complexes ou de longue haleine (heures ou jours) que vous avez effectués dans votre profession et transformez chacun d'eux en une tâche. »
L'effort de collecte de données souligne le défi permanent de l'évaluation des performances de l'IA, en particulier à mesure que les modèles deviennent plus sophistiqués. En comparant les résultats de l'IA avec le travail humain réel, OpenAI vise à acquérir une compréhension plus précise des forces et des faiblesses de ses modèles. Cette approche reflète une tendance croissante dans le domaine de l'IA vers des méthodes d'évaluation plus rigoureuses et centrées sur l'humain.
Les implications de la réalisation de l'IAG sont considérables, transformant potentiellement des industries et remodelant la nature du travail. Bien qu'OpenAI souligne les avantages potentiels de l'IAG, tels que l'augmentation de la productivité et de l'innovation, le développement soulève également des inquiétudes quant aux suppressions d'emplois et aux considérations éthiques des systèmes d'IA de plus en plus autonomes.
La demande faite aux contractuels de soumettre leur travail soulève des questions sur la confidentialité des données et la propriété intellectuelle. On ne sait pas quelles mesures OpenAI prend pour protéger la confidentialité des informations sensibles contenues dans les tâches soumises. L'entreprise n'a pas encore publié de détails sur les mesures de protection spécifiques mises en place pour empêcher l'utilisation abusive des données.
OpenAI continue d'affiner ses méthodologies d'évaluation à mesure qu'elle développe des modèles d'IA plus avancés. L'accent mis par l'entreprise sur les performances de niveau humain souligne l'importance d'aligner le développement de l'IA sur les valeurs humaines et de veiller à ce que les systèmes d'IA soient bénéfiques pour la société. Les résultats de ces évaluations influenceront probablement l'orientation future des efforts de recherche et développement d'OpenAI.
Discussion
Join the conversation
Be the first to comment