Texas startet TRAIGA: Strikte Regeln gegen KI‑Manipulation und Risiken für die Psyche

Texas startet TRAIGA: Strikte Regeln gegen KI‑Manipulation und Risiken für die Psyche

Was ist passiert?

Am 22. Juni 2025 verabschiedete der texanische Gesetzgeber HB149, bekannt als TRAIGA, und die Regelungen traten zum 1. Januar 2026 in Kraft. Das Gesetz gilt für private Anbieter und Behörden in Texas und gibt dem Attorney General die Durchsetzungsbefugnis. TRAIGA ist ein breit angelegtes Gesetz, das von Biometrie‑Nutzung bis zu Verboten gegen bestimmte manipulative KI‑Einsätze reicht.

Warum das für psychische Gesundheit relevant ist

Generative KI wird heute häufig als mentaler Ratgeber genutzt — das Blatt zitiert die Einschätzung, dass ChatGPT allein über 900 Millionen wöchentliche Nutzer hat, viele davon mit Fragen zur psychischen Gesundheit. Genauso gibt es jedoch Berichte und Klagen, etwa eine im August gegen OpenAI, die auf fehlende Schutzmechanismen hinweisen und das Risiko nennen, dass KI sogar delusionäre Gedanken oder selbstschädigendes Verhalten fördern kann. TRAIGA zielt darauf ab, genau solche schädlichen Eingriffe in Entscheidungs- und Gefühlslagen zu unterbinden.

Wie TRAIGA ‚KI‘ definiert und wann das Gesetz greift

Das Gesetz definiert ein ‚Artificial intelligence system‘ in Section 551.001 als jedes maschinenbasierte System, das aus Eingaben ableitet, wie Ausgaben erzeugt werden können — einschließlich Inhalte, Entscheidungen, Vorhersagen oder Empfehlungen, die physische oder virtuelle Umgebungen beeinflussen. Diese breite Definition kann viele Systeme erfassen und lässt offen, wie Gerichte das genau auslegen werden. Section 551.002 regelt die Anwendbarkeit: das Gesetz gilt für Personen, die in Texas Geschäfte betreiben, Produkte oder Dienste für Texaner bereitstellen oder KI in Texas entwickeln oder einsetzen.

Konkrete Verbote, Sanktionen und Ausnahmen

TRAIGA beschränkt insbesondere den Umgang mit biometrischen Daten wie Fingerabdrücken, Netzhautaufnahmen und Stimmabdrücken (vor allem bei Behörden) und verbietet KI‑Einsätze, die verfassungsmäßige Rechte beeinträchtigen. Zuwiderhandlungen können teuer werden: heilbare Verstöße werden mit etwa 10.000 bis 12.000 US‑Dollar pro Fall geahndet, nicht heilbare Verstöße liegen zwischen rund 80.000 und 200.000 US‑Dollar. Das Gesetz räumt aber auch Safe‑Harbors und mögliche Verteidigungsgründe ein, etwa für Tests, sodass Entwicklungsprojekte nicht automatisch außer Gefecht gesetzt werden.

Folgen für Unternehmen, Forschung und Regulierungslandschaft

Für globale KI‑Anbieter ist wichtig: Auch wenn ein System außerhalb von Texas gehostet wird, zieht TRAIGA dann, wenn Texaner das Produkt nutzen oder das Unternehmen in Texas Geschäfte macht. Unternehmen müssen daher Compliance‑Prüfungen durchführen und ihre Test‑ und Sicherheitsprotokolle dokumentieren. Zugleich eröffnet das Gesetz einen weiteren Vorstoß der Bundesstaaten gegen unregulierte KI‑Entwicklung — während der Bund bislang keine umfassende Regelung durchgesetzt hat, könnten Gerichtsentscheidungen über TRAIGAs Formulierung weitreichende Präzedenzfälle schaffen.

Wie siehst du die Balance zwischen Schutz und Innovation in TRAIGA?

Quelle: https://www.forbes.com/sites/lanceeliot/2026/01/25/texas-ai-law-gets-underway-with-stern-provisions-to-stop-the-manipulation-of-human-behavior-by-ai/

Read more

Pentagon gegen Anthropic: Streit um KI-Auflagen blockiert Millionenvertrag

Pentagon gegen Anthropic: Streit um KI-Auflagen blockiert Millionenvertrag

Was ist passiert? Laut Reuters ist ein bis zu 200 Millionen Dollar schwerer Vertrag zwischen dem US-Verteidigungsministerium und Anthropic ins Stocken geraten, weil sich beide Seiten über Nutzungsbeschränkungen streiten. Militärvertreter verlangen, kommerzielle KI-Systeme möglichst ohne firmeninterne einschränkende Vorgaben für Kampfeinsätze und Aufklärung einsetzen zu können, Anwendernanliegen und Gesetze vorausgesetzt. Anthropic

By Admin FoxifAI