Texas untersucht Meta und Character.ai wegen irreführender KI-Chatbot-Vermarktung
- Texas untersucht Meta und Character.ai wegen irreführender Vermarktung von KI-Chatbots als Therapiehilfen.
- Der US-Senat prüft mögliche Gefahren für Kinder durch Metas KI-Produkte.
Der texanische Generalstaatsanwalt Ken Paxton hat Ermittlungen gegen Meta und Character.ai eingeleitet. Die Unternehmen sollen ihre KI-Chatbots als therapeutische Hilfsmittel vermarktet haben, obwohl diese keine medizinische Zulassung besitzen.
Paxton betont, dass KI-Plattformen besonders verletzliche Nutzer, insbesondere Kinder, täuschen könnten. Eine civil investigative demand wurde an Meta und Character.ai gesendet, um interne Informationen offenzulegen.
Der US-Senat untersucht ebenfalls Meta, nachdem Berichte aufkamen, dass deren KI-Chatbot unangemessene Gespräche mit Minderjährigen führte. Senator Josh Hawley prüft mögliche Gefahren für Kinder durch Metas KI-Produkte.
Meta weist die Vorwürfe zurück und betont, dass Unternehmensrichtlinien jede Sexualisierung von Kindern untersagen. Die fraglichen Dokumente seien fehlerhaft und entfernt worden.
Mark Zuckerberg sieht in KI-Chatbots eine mögliche therapeutische Rolle und investiert in Sprachmodelle wie Llama. Meta integriert den Meta-AI-Chatbot in seine Social-Media-Apps.
Character.ai bietet „Therapiebots“ an, darunter einen „Psychologist“ mit über 200 Mio. Interaktionen. Das Unternehmen bestreitet, dass Kinder durch die Plattform Schaden erlitten haben, und verweist auf klare Disclaimer.
Die Debatte zeigt, wie schnell generative KI von einer Innovationshoffnung zu einem regulatorischen Risiko für Big Tech geworden ist.