Quantcast
Aktuelles
Digital Eliteboard - Das Digitale Technik Forum

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

PC & Internet Künstliche Intelligenz: Wie Europa Chat-GPT & Co. Zügel anlegt

Du musst Regestriert sein, um das angehängte Bild zusehen.

Künstliche Intelligenz (KI) steht im Mittelpunkt des Interesses von Wirtschaft, Öffentlichkeit und Politik.

Die Menschen sollen mit künstlicher Intelligenz nicht allein gelassen werden.
Schließlich ist nicht immer klar, was sie tut und wer darunter leiden könnte.
Worauf sich die EU nun geeinigt hat.

Wie Europa Chat-GPT & Co. Zügel anlegt.​

Einer der Vorteile der künstlichen Intelligenz (KI) ist, dass sie keinen Schlaf braucht.
Solange Strom und Computerkapazitäten da sind, kann automatisierte Software selbständig vor sich hin arbeiten und zum Beispiel Texte produzieren.
Theoretisch auch Gesetzestexte.

Die Verhandlungen über den AI Act, das große EU-Regelwerk zur KI, konnten die Verhandelnden in Brüssel allerdings nicht an Maschinen auslagern.
Sie rangen am Mittwoch und Donnerstag 22 Stunden lang, und dann nach einer Schlafpause noch einmal 16 Stunden.
Freitagnacht verkündeten Kommission, Parlament und Mitgliedstaaten die Einigung.
Europa hat endlich Regeln für die mächtige Technologie.

Der AI Act soll, geht es nach den Entscheidern in Brüssel, der Welt ein Vorbild sein.
Das Regelwerk soll verhindern, dass selbst lernende Software Vorurteile und Diskriminierungen bestimmter Gruppen übernimmt.
Dass KI-Modelle, die viele verschiedene Dinge können, besonders gut überwacht werden.
Und dass KI nicht zur Massenüberwachung eingesetzt wird und intimstes über Menschen herausfindet.

Zugleich sollen die Regeln die EU als Standort für erfolgreiche KI-Unternehmen stärken, bislang sind die USA und China in diesem Bereich führend.

Warum KI Regeln haben soll?

Als künstliche Intelligenz wird der Versuch bezeichnet, menschliches Lernen und Denken auf Software zu übertragen.
Dank moderner Algorithmen, Rechnerkapazitäten und immer größer werdender Datenmengen hat KI in jüngster Zeit große Fortschritte gemacht.
Sie wird zur Prozessoptimierung in der Industrie, zur Automatisierung stupider Aufgaben und zur Erzeugung von Bildern und Texten eingesetzt.

Weil die Automatisierung menschlicher Aufgaben Risiken beinhaltet und KI-Algorithmen oft intransparente "Black-boxes" sind, arbeiten Politiker weltweit an Regelwerken.

Was entschieden wurde!

Im Zentrum der Vorgaben steht der Umgang mit "KI-Grundlagenmodellen".
Das sind Programme wie GPT-4, das Modell hinter dem bekannten Chatbot Chat-GPT.
Sie dienen als Basis, auf der andere Firmen Chatbots für den Kundendienst oder digitale Assistenten für Ärzte entwickeln können.
Nun werden solche Modelle in zwei Klassen eingeteilt.
Besonders leistungsfähige Modelle, die als "hochriskant" gelten, müssen Transparenzpflichten erfüllen.
Die Hersteller müssen die Funktionsweise dokumentieren, ebenso die Einhaltung des EU-Urheberrechts und detaillierte Erklärungen zu den Daten, die fürs Training der KI verwendet wurden.
Zudem muss er Cybersicherheit gegen eine Manipulation durch Hacker gewährleisten.

Verboten wird auch der Einsatz von KI zum Social Scoring, also der Bewertung von Menschen für ihr Verhalten.
Auch Datenbanken, die wahllos Gesichtsfotos im Netz erfassen und Datenbanken dieser Gesichter anlegen, werden verboten.
Ebenso die KI-Analyse von Gefühlen anhand von Gesichtsausdrücken am Arbeitsplatz oder in Bildungseinrichtungen.

Für den Umgang mit biometrischen Daten wurden enge Grenzen gesetzt.
So dürfen Behörden automatisierte Gesichtserkennung im öffentlichen Raum nur bei der Verfolgung schwerer Straftaten wie Entführung und Vergewaltigung und zur Terrorabwehr einsetzen.

Skeptiker wie der Piraten-Abgeordnete Patrick Breyer sehen darin eine "faktische Erlaubnis zur flächendeckenden Massenüberwachung".
Schließlich würde KI-Software in diesen jeden Menschen scannen, der sich in einem entsprechenden Gebiet aufhält.

Verstoßen Unternehmen gegen die Regeln, drohen ihnen vergleichsweise hohe Strafen.
Es sollen bis zu 35 Millionen Euro sein, oder 7 Prozent des weltweiten Umsatzes.

Binnenmarktkommissar Thierry Breton nannte die Einigung historisch.
"Die EU wird der erste Kontinent sein, der klare Regeln für den Einsatz von KI aufstellt", erklärte er.
Allerdings gibt es bislang nur eine politische Einigung, mit der sich Breton schmückt.

Nun folgt die technische Ausarbeitung.
Kris Shrishak von der NGO Irish Council for Civil Liberties hat die Verhandlungen begleitet.
Er sagte der SZ:
"Es müssen noch viele Details geklärt werden.
Solange nicht der gesamte Gesetzestext vorliegt und fertiggestellt ist, was viele Wochen dauern könnte, geht es bei dieser Einigung nur ums politische Punkten.
Nicht um das Gesetz."

Das Parlament und der Rat der Mitgliedsstaaten müssen noch zustimmen - das sollte jetzt aber eine Formalität sein.
Einige der Entscheidungen werden dann nach einem Jahr greifen, wie die Hochrisiko-Einstufungen, andere in zwei Jahren.


Worum es bis zuletzt Streit gab?

Der AI Act soll den Komplex an Gesetzen komplettieren, mit denen Kommissar Breton die digitale Sphäre in der EU ordnen und zum Vorbild für die Welt machen will.
Zu diesem Komplex zählen auch das Gesetz über digitale Dienste, das Plattformen wie Facebook und Tiktok Regeln für "gefährliche Inhalte" vorgibt, oder das Gesetz über digitale Märkte, das übermäßige Online-Macht von Konzernen wie Amazon beschneiden soll.

Die KI-Verhandlungen wären fast gescheitert.
Streit hatte es hauptsächlich über zwei Punkte gegeben.

Zum einen über KI in der Gesichtserkennung.
Biometrische Daten über die Körper der Bürger gelten als besonders schützenswert, weil ihr Missbrauch einschneidend für die Privatsphäre der Menschen sein kann.
So könnten Systeme Menschen bestimmter Herkunft benachteiligen, wenn sie entsprechend trainiert sind.
Einige Parlamentarier wehrten sich auch gegen eine Ausnahme für die Sicherheitsbehörden, die KI-Gesichtserkennung etwa im Fall von Terrorbedrohungen nutzen wollten. Solche Ausnahmen für die "nationale Sicherheit" gelten Kritikern von Grünen und Liberalen als Einfallstor für den Missbrauch der Technik und die Ausweitung ihres Einsatzes auf weitere Bereiche.

Zweitens gab es Ärger bei der Regulierung der Grundlagenmodelle.
Zu denen zählt das "Sprachmodell", das Chat-GPT so scheinbar kluge Gespräche mit Menschen führen lässt.
Diese Sprachmodelle können faszinierende Verbindungen zwischen den vielen Informationen herstellen, die sie gelernt haben.
Deshalb gelten sie als ein Schritt in Richtung wirklich "intelligenter" Systeme, die dem Menschen in immer mehr Aufgaben überlegen sein werden.

Zuletzt hatten drei Staaten Kritik provoziert:
Deutschland, Frankreich und Italien.
Sie wollten die Grundlagenmodelle in Teilen von den neuen strengen Regeln ausnehmen lassen.
Das behindere die Forschung am KI-Standort EU.
Deshalb sollten die Unternehmen sich lieber selbst kümmern statt Gesetzgeber und Aufseher.

Dagegen wandten sich unter anderem Vertreter der Zivilgesellschaft.
Wer die Modelle, die viele Unternehmen für ihre Zwecke einsetzten, unreguliert lasse, gehe erhebliche Risiken in Sachen ein.
Schließlich könnten sie für eine unheimliche Zahl von Dingen eingesetzt werden, die dann unreguliert blieben.
Zudem schaffe es Rechtsunsicherheit bei jenen Unternehmen, die die Basismodelle einsetzen, die sie nun von Open AI aus dem Silicon Valley oder von Aleph Alpha aus Heidelberg haben.

Die Kritiker warfen Frankreich und Deutschland vor, ihre nationalen Lieblingen Mistral aus Paris und eben Aleph Alpha teure Auflagen ersparen zu wollen.
Die beiden Unternehmen gelten als Hoffnungsträger, um die EU bei den angesagten großen Sprachmodellen auf Augenhöhe mit den KI-Großmächten USA und China zu bringen.
Flankiert werden soll der AI Act von einer Richtlinie für KI, die Haftung fragen klären soll.

Das Trio Deutschland, Frankreich und Italien ist jetzt gescheitert, Grundlagemodelle werden nicht ausgespart.
Das ärgert einige Vertreter der Wirtschaft. Iris Plöger, Geschäftsführungsmitglied des Bundes der Deutschen Industrie, sagte:
"Mit der umfassenden Regulierung von KI-Basismodellen und KI-Anwendungen gefährdet der AI Act die Wettbewerbs- und Innovationsfähigkeit sowohl auf Hersteller- als auch auf Anwenderseite."

Andere sehen die Regelung als hilfreich für jene Unternehmen, die die vielseitigen Basismodelle für ihre Zwecke anpassen und einsetzen.
Svenja Hahn, EU-Parlamentariern von der FDP, sagt:
"Ein extrem wichtiger Erfolg für europäische Unternehmen, um sichere Systeme bauen zu können und nicht auf den Compliance-Kosten sitzenzubleiben oder verantwortlich für Fehlfunktionen von GPAI-Systemen ( den Basismodellen, Anm. d. Red.) zu sein.
Vor allem kleinere und mittlere Unternehmen, die GPAI-Systeme wie Chat-GPT in eigene Systeme integrieren, werden massiv regulatorisch entlastet."


Quelle: Sz.de
 
Zurück
Oben