소셜 미디어 대기업들이 이번 주, 랜드마크 법적 소송과 규제 조치로 인해 사용자, 특히 아동에 대한 영향에 대한 우려가 제기되면서 감시의 강도가 높아지고 있습니다. Instagram과 Facebook의 모회사인 Meta는 아동의 안전보다 이윤을 우선시했다는 혐의로 소송의 대상이 되었으며, 유럽 연합은 반경쟁적 행위에 대해 해당 회사에 대한 조치를 취했습니다. 한편, Discord는 성인 콘텐츠 접근을 제한하기 위해 새로운 연령 확인 조치를 발표했습니다.
알 자지라에 따르면, 뉴멕시코 주 검찰총장이 제기한 소송에서 이번 주에 시작된 개시 진술에서 Meta가 아동을 성적으로 노골적인 자료로부터 보호하는 데 실패했다고 주장했습니다. 이는 Meta를 상대로 제기된 40건의 소송 중 하나입니다. BBC가 보도한 또 다른 소송에서는 소셜 미디어 회사가 "중독 기계"를 만들었다고 비난하며 Instagram과 YouTube의 정신 건강 영향에 대해 조사하고 있습니다. 원고를 대리하는 마크 라니어는 해당 회사들이 이러한 기계를 "의도적으로" 만들었다고 주장했습니다.
EU는 또한 Meta에 대해 조치를 취하여 경쟁 AI 회사의 챗봇을 WhatsApp에서 차단함으로써 규칙을 위반했다고 밝혔습니다. 유럽 위원회는 WhatsApp이 AI 챗봇의 "중요한 진입점"이라고 언급하며 Meta가 지배적 지위를 남용했다고 비난했다고 BBC는 보도했습니다. Meta 대변인은 BBC에 EU가 개입할 "이유가 없다"고 말했습니다.
다른 기술 뉴스에서, Discord는 BBC에 따르면 성인 콘텐츠에 접근하기 위해 전 세계 모든 사용자가 얼굴 스캔 또는 신분증으로 연령을 확인해야 한다고 발표했습니다. 이 배포는 3월 초에 시작될 예정입니다. 월간 2억 명 이상의 사용자를 보유한 온라인 채팅 서비스는 이미 온라인 안전 법률을 준수하기 위해 영국과 호주에서 연령 확인을 요구하고 있습니다.
이러한 발전은 기술 산업이 빠르게 진화함에 따라 이루어졌습니다. BBC는 또한 일부 회사가 주 70시간 근무를 광고하는 등, 기술 회사들이 극단적인 근무 시간을 채택하는 추세에 대해서도 보도했습니다.
Discussion
AI 전문가 & 커뮤니티
첫 댓글을 남겨보세요