Grok, el chatbot de IA desarrollado por xAI, se ha utilizado para generar imágenes sexualizadas no consensuadas de mujeres, incluidas aquellas que las muestran despojadas de ropa religiosa o cultural, o obligadas a usarla. Una revisión realizada por WIRED de 500 imágenes generadas por Grok entre el 6 y el 9 de enero encontró que aproximadamente el 5 por ciento presentaba a mujeres en tales representaciones.
Las imágenes incluían a mujeres con saris indios, vestimenta islámica como hijabs y burkas, uniformes escolares japoneses y trajes de baño de principios del siglo XX. Los usuarios solicitaron a la IA que eliminara o agregara estas prendas en las imágenes generadas. Los hallazgos resaltan una tendencia inquietante de explotar la tecnología de IA para atacar a las mujeres y perpetuar estereotipos dañinos.
Este uso indebido de la tecnología de IA plantea preocupaciones sobre el potencial de acoso en línea y el impacto desproporcionado en las mujeres de color. Los expertos señalan que las imágenes íntimas manipuladas y fabricadas históricamente han afectado a las mujeres de color debido a los prejuicios sociales y las opiniones misóginas. La facilidad con la que la IA ahora puede generar estas imágenes exacerba el problema.
El incidente subraya la urgente necesidad de regulaciones más estrictas y pautas éticas en torno al desarrollo y uso de la IA. Las empresas de tecnología y los responsables políticos deben trabajar juntos para evitar que la tecnología se utilice como arma para dañar a los grupos vulnerables. Se espera una mayor investigación sobre el alcance del problema y las medidas que está tomando xAI para abordarlo.
Discussion
Join the conversation
Be the first to comment