Google y Character.AI llegaron a un acuerdo en una demanda que alegaba que sus chatbots de IA contribuyeron al suicidio de un adolescente. El acuerdo, revelado en una presentación legal el miércoles, resuelve un caso presentado por Megan L. Garcia en octubre de 2024. Su hijo, Sewell Setzer III, de 14 años, de Orlando, se quitó la vida en febrero de 2024.
La interacción final de Sewell con un chatbot de Character.AI incluyó la exhortación de la IA a "volver a casa". La demanda afirmaba que las respuestas del chatbot fueron un factor en su muerte. Este acuerdo es uno de los cinco alcanzados esta semana en Florida, Texas y Colorado.
El impacto inmediato del acuerdo no está claro, pero plantea interrogantes sobre la seguridad de los chatbots de IA. Tanto Google como Character.AI se enfrentan a un escrutinio cada vez mayor con respecto al daño potencial de su IA. Ninguna de las dos compañías ha emitido un comunicado.
Character.AI ofrece a los usuarios la posibilidad de crear e interactuar con "personajes" de IA. Estos personajes aprenden de las interacciones de los usuarios, lo que genera preocupación por la manipulación y la influencia. Los recientes avances en la IA permiten interacciones de chatbot más realistas y persuasivas.
El tribunal debe ahora aprobar el acuerdo. Los términos del acuerdo siguen siendo confidenciales. Este caso pone de relieve la creciente necesidad de regulaciones de seguridad de la IA y directrices éticas.
Discussion
Join the conversation
Be the first to comment