Der US-Bundesstaat New York hat der KI-Werbung eine klare Grenze gesetzt: Wenn in Werbeclips per KI generierte Personen anstatt echter Menschen zu sehen sind, sollen Verbraucher in New York künftig darauf hingewiesen werden. Das erste regionale Gesetz dieser Art in den USA sieht eine Strafe von 1000 Dollar beim ersten Verstoß vor – und von 5000 Dollar bei weiteren Verstößen.
Die Software ist inzwischen so gut, dass von KI generierte Personen in Bildern und Videos oft kaum noch von echten Menschen zu unterscheiden sind. Wenn solche digitalen Figuren verwendet werden, um Produkte zu verkaufen, müsse es Transparenz geben, damit Verbraucher nicht in die Irre geführt werden, argumentieren die Verfechter des New Yorker Gesetzes.
Erst diese Woche gab es Aufregung um einen Werbeclip mit KI-Personen. McDonald’'s zog in den Niederlanden ein komplett mit Software generiertes Video zurück, nachdem es auf Kritik gestoßen war.
Trump gegen KI-Gesetze in Bundesstaaten
Allerdings ist unklar, wie lange die New Yorker Vorgabe Bestand haben wird, denn US-Präsident Donald Trump sind die KI-Gesetze in einzelnen Bundesstaaten ein Dorn im Auge. Er unterzeichnete einen Erlass, der die US-Regierung anweist, die lokalen Gesetze zu analysieren. Wenn sie mit der Regierungsstrategie bei KI nicht im Einklang seien, solle das Justizministerium dagegen vor Gericht ziehen.
Das Argument der Regierung ist, ein Flickenteppich aus verschiedenen Vorschriften in 50 Bundesstaaten werde den Fortschritt der USA bei der Entwicklung künstlicher Intelligenz hemmen. Auch die Techbranche wurde in Washington mit dieser Position vorstellig. Trump lockerte unterdessen auch unter Vorgänger Joe Biden eingezogenen Leitplanken für KI, die die mit der neuen Technologie verbundenen Risiken reduzieren sollten.
Das Weiße Haus schreibt in Anlehnung an einen Erlass Trumps zu Künstlicher Intelligenz von Juli vor, dass KI für den Einsatz in Behörden »ideologisch neutral« sein müsse. Die Rechten um Trump warfen Techkonzeren in den vergangenen Jahren immer wieder vor, deren Ansichten zu diskriminieren – auch wenn es dabei zum Beispiel um Faktenchecks zu nachweislich falschen Angaben ging. Diese Kritik weiteten sie zum Teil auch auf die KI-Modelle aus.

