KI-Entwicklung steht vor Vertrauenslücke, während Anwendungen von Pornografie bis zur Codegenerierung reichen
Die Entwicklung künstlicher Intelligenz steht laut einer aktuellen Umfrage vor einem "Vertrauensparadox", da viele Unternehmen Schwierigkeiten haben, KI über erste Pilotprogramme hinaus zu skalieren. Gleichzeitig diversifizieren sich die KI-Anwendungen rasant, wobei einige Modelle Pornografie generieren und andere fortschrittliche Programmierfähigkeiten demonstrieren, was Bedenken hinsichtlich des Arbeitsplatzabbaus und ethischer Erwägungen aufwirft.
Die dritte jährliche Umfrage von Informatica unter Chief Data Officers (CDOs), die 600 Führungskräfte weltweit umfasst, ergab, dass zwar 69 % der Unternehmen generative KI eingesetzt haben und 47 % damit experimentieren, aber eine erhebliche Governance-Lücke besteht. Die Umfrage ergab, dass 76 % der Datenverantwortlichen nicht kontrollieren können, was ihre Mitarbeiter bereits nutzen. Dieser Widerspruch erklärt, warum viele Unternehmen Schwierigkeiten haben, von KI-Experimenten zur Produktionsreife überzugehen, so VentureBeat.
Erschwerend kommt hinzu, dass eine neue Studie von Google nahelegt, dass fortschrittliche Reasoning-Modelle eine hohe Leistung erzielen, indem sie Multi-Agenten-ähnliche Debatten mit unterschiedlichen Perspektiven simulieren. Diese "Society of Thought"-Konversationen, wie die Forscher sie nennen, verbessern die Modellleistung bei komplexen Denk- und Planungsaufgaben erheblich. Die Forscher fanden heraus, dass führende Reasoning-Modelle wie DeepSeek-R1 und QwQ-32B diese Fähigkeit ohne explizite Anweisung entwickeln, was einen Fahrplan für Entwickler bietet, um robustere LLM-Anwendungen zu erstellen, und für Unternehmen, um überlegene Modelle mit ihren eigenen internen Daten zu trainieren, berichtete VentureBeat.
Der rasante Fortschritt der KI wirft jedoch auch ethische Bedenken auf. Eine Analyse von Forschern der Stanford University und der Indiana University ergab, dass ein ziviler Online-Marktplatz für KI-generierte Inhalte, der von Andreessen Horowitz unterstützt wird, es Nutzern ermöglicht, benutzerdefinierte Anweisungsdateien für die Generierung von Prominenten-Deepfakes zu kaufen. Laut MIT Technology Review waren einige dieser Dateien speziell dafür konzipiert, pornografische Bilder zu erstellen, die von der Website verboten wurden. Die Studie ergab, dass zwischen Mitte 2023 und Ende 2024 ein erheblicher Teil der Anfragen auf der Website Deepfakes von echten Personen betraf und 90 % dieser Deepfake-Anfragen Frauen zum Ziel hatten.
Die vielfältigen Fähigkeiten von KI-Modellen erzeugen sowohl Begeisterung als auch Besorgnis. MIT Technology Review stellte fest, dass einige Modelle wie Grok zur Erzeugung von Pornografie verwendet werden, während andere wie Claude Code komplexe Aufgaben wie das Erstellen von Websites und das Lesen von MRTs ausführen können. Dies hat insbesondere bei der Generation Z zu Bedenken hinsichtlich der potenziellen Auswirkungen von KI auf den Arbeitsmarkt geführt. Beunruhigende neue Forschungsergebnisse deuten darauf hin, dass KI in diesem Jahr einen seismischen Einfluss auf den Arbeitsmarkt haben wird.
Die KI-Industrie selbst ist mit internen Spannungen konfrontiert. Der ehemalige KI-Chef von Meta, Yann LeCun, teilt öffentlich seine Ansichten, während Elon Musk und OpenAI auf einen Prozess zusteuern, was laut MIT Technology Review zu weiterer Unsicherheit in diesem Bereich führt.
Discussion
Join the conversation
Be the first to comment