Ashley St. Clair, identificada en documentos judiciales como la madre de uno de los hijos de Elon Musk, presentó una demanda contra xAI, la empresa de inteligencia artificial de Musk, alegando el uso no autorizado de su imagen en deepfakes de contenido sexual explícito generados por Grok, el chatbot de IA de xAI. La demanda, presentada en el Tribunal Superior de California en el condado de Los Ángeles el martes, afirma que Grok produjo imágenes fabricadas que representaban a St. Clair en situaciones comprometedoras después de que los usuarios solicitaran a la IA indicaciones específicas.
La demanda alega que los deepfakes se crearon sin el consentimiento de St. Clair y se distribuyeron en línea, causándole una angustia emocional significativa y un daño a su reputación. St. Clair busca una indemnización por difamación, invasión de la privacidad y violación de la ley de derecho de publicidad de California, que protege a las personas del uso comercial no autorizado de su imagen. La demanda también exige que xAI tome medidas inmediatas para evitar la creación y distribución de deepfakes utilizando su imagen.
Los deepfakes, un acrónimo de "deep learning" (aprendizaje profundo) y "fake" (falso), son medios sintéticos en los que se reemplaza a una persona en una imagen o video existente con la imagen de otra persona. Esta tecnología se basa en sofisticados algoritmos de IA, particularmente redes neuronales profundas, para aprender y replicar expresiones faciales, movimientos corporales e incluso voces. Si bien los deepfakes tienen aplicaciones legítimas en el entretenimiento y el arte, su potencial de uso indebido, incluida la creación de desinformación y pornografía no consentida, ha suscitado serias preocupaciones éticas y legales.
"La creación y difusión de estos deepfakes representan una amenaza significativa para las personas, particularmente para las mujeres", dijo Carrie Goldberg, abogada de St. Clair, en un comunicado. "Esta demanda tiene como objetivo responsabilizar a xAI por su papel en la facilitación de esta tecnología dañina y establecer un precedente legal para proteger a las personas del uso no autorizado de su imagen en contenido generado por IA".
xAI aún no ha emitido una declaración formal con respecto a la demanda. Sin embargo, la compañía ha reconocido previamente el potencial de uso indebido de su tecnología de IA y ha declarado su compromiso de desarrollar salvaguardias para evitar la creación de contenido dañino. En una publicación de blog reciente, xAI describió sus esfuerzos para detectar y filtrar indicaciones que podrían conducir a la generación de deepfakes u otras formas de medios sintéticos que violen sus políticas de uso.
La demanda se produce en medio de un creciente escrutinio del campo de la inteligencia artificial, que evoluciona rápidamente, y su impacto potencial en la sociedad. Los legisladores y reguladores de todo el mundo están lidiando con cómo equilibrar los beneficios de la innovación en IA con la necesidad de proteger a las personas de sus posibles daños. El caso de St. Clair podría tener implicaciones significativas para el panorama legal que rodea el contenido generado por IA y las responsabilidades de los desarrolladores de IA.
Los expertos legales señalan que el caso plantea cuestiones complejas sobre la aplicación de las leyes existentes a las nuevas tecnologías. "Las leyes tradicionales de difamación y derecho de publicidad pueden no ser fácilmente aplicables a los deepfakes", dijo el profesor David Ardia, codirector del Centro de Derecho y Política de los Medios de Comunicación de la Universidad de Carolina del Norte. "Los tribunales deberán considerar si el desarrollador de IA puede ser considerado responsable de las acciones de sus usuarios y si la creación de un deepfake constituye un uso comercial de la imagen de un individuo".
Se espera que el caso avance a través del sistema judicial de California, con audiencias iniciales programadas en los próximos meses. El resultado podría sentar un precedente para futuras demandas relacionadas con contenido generado por IA y podría influir en el desarrollo de nuevas leyes y regulaciones que rijan el uso de la inteligencia artificial. Es probable que la batalla legal dependa de probar la responsabilidad directa de xAI por la creación y distribución de los deepfakes y de establecer un vínculo claro entre la tecnología de la empresa y el daño sufrido por St. Clair.
Discussion
Join the conversation
Be the first to comment