La nouvelle loi européenne sur l'IA entre en vigueur - qu'est-ce qui change ?
Pour la première fois, des règles uniformes s'appliquent à l'utilisation de l'intelligence artificielle dans l'UE. Il faudra toutefois attendre encore un peu avant que la loi ne soit pleinement appliquée dans tous les Etats.
Translate
spinner.loading
spinner.loading
Brüssel - Das Gesetz über Künstliche Intelligenz (KI) der EU ist Anfang August in Kraft getreten. Die Mitgliedsstaaten haben nun zwei Jahre Zeit, die Vorgaben in nationales Recht umzusetzen. Mit dem Gesetz wird KI in der Europäischen Union schärfer und einheitlich reguliert. Grundrechte, Demokratie und Rechtsstaatlichkeit sollen damit besser im Umgang mit der Technologie geschützt werden. Was das Gesetz genau bedeutet:
Was ist Künstliche Intelligenz überhaupt?
Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Damit können menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität imitiert werden. Damit können Maschinen beispielsweise ihre Umwelt wahrnehmen und auf sie reagieren.
KI wird schon jetzt in vielen Bereichen eingesetzt. Zum Beispiel können solche Programme Aufnahmen von Computertomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Selbstfahrende Autos wiederum versuchen, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und Chatbots oder automatische Playlists von Streaming-Diensten arbeiten ebenfalls mit KI.
Warum braucht es ein solches Gesetz in der EU?
Das Gesetz zielt darauf ab, die Nutzung von KI in der Europäischen Union sicherer zu machen. Es soll sicherstellen, dass KI-Systeme möglichst transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. Ein wichtiger Aspekt ist, dass die KI-Systeme von Menschen überwacht werden und nicht nur von anderen Technologien.
Welche Regeln beinhaltet das Gesetz?
Die Regelungen sehen vor, KI-Anwendungen in verschiedene Risikogruppen einzustufen. Systeme, die als besonders risikoreich gelten und beispielsweise in kritischen Infrastrukturen oder im Bildungs- und Gesundheitswesen eingesetzt werden, müssen strenge Anforderungen erfüllen. Anwendungen mit einem geringeren Risiko unterliegen weniger Verpflichtungen.
KI-Anwendungen, die gegen EU-Werte verstoßen, sind zudem ganz verboten. Dazu gehört etwa die Bewertung von sozialem Verhalten («Social Scoring»). Damit werden in China Bürgerinnen und Bürger in Verhaltenskategorien eingeteilt.
Was bedeutet es für Verbraucher?
Das Gesetz soll Verbraucher besser vor risikohaften KI-Anwendungen schützen. Gesichtserkennung im öffentlichen Raum - etwa durch Videoüberwachung an öffentlichen Plätzen - ist grundsätzlich nicht erlaubt. Auch eine Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen ist mit dem Gesetz in der EU verboten.
Außerdem müssen KI-Anwendungen transparenter gekennzeichnet sein. Verbraucher sollen so leichter erkennen, bei welchen Programmen Künstliche Intelligenz verwendet wird. Privatpersonen, die Verstöße gegen die Vorschriften entdecken, können sich bei nationalen Behörden beschweren.
Was hat sich konkret zum 1. August geändert?
Erstmal gar nicht so viel. Das KI-Gesetz soll nämlich schrittweise greifen. Einige Regelungen müssen dann zeitnah von den Mitgliedstaaten umgesetzt werden - wie das Verbot von KI-Systemen, die «unannehmbare Risiken» darstellen. Das sind Systeme, die als Bedrohung für Menschen eingestuft sind. Deren Verbot gilt schon nach einem halben Jahr.
Ein Verhaltenskodex für Anbieter von KI-Modellen soll bis April nächsten Jahres fertiggestellt werden, wie die EU-Kommission vor Inkrafttreten des Gesetzes mitteilte.
Nach zwei Jahren müssen dann größtenteils alle Punkte des Gesetzes vollständig umgesetzt sein. Hochriskante Systeme werden hingegen mehr Zeit haben, um die Anforderungen zu erfüllen. Die sie betreffenden Verpflichtungen gelten nach drei Jahren.
Was passiert, wenn sich jemand nicht an die Regeln hält?
Bei Verstößen drohen empfindliche Strafen: Beim Einsatz von verbotener Technologie etwa bis zu 35 Millionen Euro oder - im Falle von Unternehmen - bis zu sieben Prozent des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres. Das genaue Strafmaß muss in diesem Rahmen aber von den Ländern festgelegt werden, wie die Kommission mitteilte.
Bei anderen Verstößen gegen das Gesetz können Strafen von bis zu 15 Millionen Euro oder - im Falle von Unternehmen - bis zu drei Prozent des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres fällig werden.
Gibt es Kritik am Gesetz?
Experten diskutierten zuletzt immer wieder, ob KI durch das Gesetz einen Schub erhält oder die Entwicklung vielleicht sogar ausgebremst wird. Das liegt am Ende wohl auch an der jeweiligen nationalen Umsetzung. Der deutsche Grünen-Politiker Tobias Bacherle mahnte, nun eine Regelung für KI-gestützte biometrische Überwachung in Deutschland zu finden. In den falschen Händen könnte sie leicht zur Aushebelung von Freiheitsrechten missbraucht werden, sagte er.
Dem deutsche Digitalminister Volker Wissing gehen die Vorgaben des EU-Gesetzes teilweise zu weit. «Ich hätte mir eine innovationsfreundlichere Regulierung gewünscht», sagte der Politiker der liberalen FDP der Deutschen Presse-Agentur. «Aber am Ende muss es eben ein Kompromiss sein, der ist besser als keine Regulierung.» Nun gehe es in Deutschland um eine möglichst «bürokratiearme» Umsetzung.
Darüber hinaus wurde früher bemängelt, es könnten viele Vorgaben angesichts der schnellen technischen Entwicklung von KI-Anwendungen und der schrittweisen Umsetzung der Regelungen schon bald wieder veraltet sein. Die Kommission teilte mit, sie werde jährlich eine Prüfung vornehmen, ob die Liste der «hochriskanten» Anwendungen überarbeitet oder erweitert werden müsse.
Bruxelles - La loi sur l'intelligence artificielle (IA) de l'UE est entrée en vigueur début août. Les Etats membres ont maintenant deux ans pour la transposer dans leur droit national. Avec cette loi, l'IA sera réglementée de manière plus stricte et uniforme dans l'Union européenne. Les droits fondamentaux, la démocratie et l'État de droit doivent ainsi être mieux protégés dans le cadre de l'utilisation de la technologie. Ce que signifie exactement la loi :
Qu'est-ce que l'intelligence artificielle ?
L'intelligence artificielle désigne généralement des applications basées sur l'apprentissage automatique, dans lesquelles un logiciel recherche des concordances dans de grandes quantités de données et en tire des conclusions. Cela permet d'imiter les capacités humaines telles que la pensée logique, l'apprentissage, la planification et la créativité. Cela permet par exemple aux machines de percevoir leur environnement et d'y réagir.
L'IA est déjà utilisée dans de nombreux domaines. Par exemple, de tels programmes peuvent évaluer des clichés de tomographie assistée par ordinateur plus rapidement et avec une plus grande précision que les humains. De leur côté, les carosses autopilotées tentent de prédire le comportement des autres usagers de la route. Et les chatbots ou les listes de lecture automatiques des services de streaming utilisent également l'IA.
Pourquoi une telle loi est-elle nécessaire dans l'UE ?
La loi vise à rendre l'utilisation de l'IA plus sûre dans l'Union européenne. Elle doit garantir que les systèmes d'IA soient aussi transparents, compréhensibles, non discriminatoires et respectueux de l'environnement que possible. Un aspect important est que les systèmes d'IA soient surveillés par des humains et pas seulement par d'autres technologies.
Quelles sont les règles contenues dans la loi ?
Les règles prévoient de classer les applications d'IA dans différents groupes de risques. Les systèmes considérés comme présentant un risque élevé et utilisés par exemple dans des infrastructures critiques ou dans le secteur de l'éducation et de la santé doivent répondre à des exigences strictes. Les applications présentant un risque plus faible sont soumises à moins d'obligations.
Les applications d'IA qui enfreignent les valeurs de l'UE sont en outre totalement interdites. Il s'agit par exemple de l'évaluation du comportement social ("social scoring"). En Chine, les citoyens sont ainsi classés dans des catégories de comportement.
Qu'est-ce que cela signifie pour les consommateurs ?
La loi doit mieux protéger les consommateurs contre les applications d'IA à risque. La reconnaissance faciale dans l'espace public - par exemple par le biais de la vidéosurveillance dans les lieux publics - n'est en principe pas autorisée. La reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement est également interdite par la loi dans l'UE.
En outre, les applications d'IA doivent être étiquetées de manière plus transparente. Les consommateurs pourront ainsi reconnaître plus facilement les programmes qui utilisent l'intelligence artificielle. Les particuliers qui découvrent des infractions aux règles peuvent se plaindre auprès des autorités nationales.
Concrètement, qu'est-ce qui a changé au 1er août ?
Tout d'abord, pas grand-chose. La loi sur l'IA doit en effet entrer en vigueur progressivement. Certaines dispositions devront être mises en œuvre rapidement par les États membres, comme l'interdiction des systèmes d'IA présentant des "risques inacceptables". Il s'agit de systèmes considérés comme une menace pour les humains. Leur interdiction s'applique déjà après six mois.
Un code de conduite pour les fournisseurs de modèles d'IA doit être finalisé d'ici avril de l'année prochaine, comme l'a indiqué la Commission européenne avant l'entrée en vigueur de la loi.
Au bout de deux ans, la plupart des points de la loi devront être entièrement mis en œuvre. Les systèmes à haut risque auront en revanche plus de temps pour se conformer aux exigences. Les obligations les concernant s'appliqueront après trois ans.
Que se passe-t-il si quelqu'un ne respecte pas les règles ?
En cas d'infraction, les sanctions sont lourdes : en cas d'utilisation d'une technologie interdite, par exemple, jusqu'à 35 millions d'euros ou - dans le cas des entreprises - jusqu'à sept pour cent du chiffre d'affaires annuel mondial de l'exercice précédent. Le montant exact de l'amende doit toutefois être fixé par les pays, comme l'a indiqué la Commission.
Les autres infractions à la loi peuvent entraîner des amendes allant jusqu'à 15 millions d'euros ou, dans le cas des entreprises, jusqu'à trois pour cent du chiffre d'affaires annuel mondial de l'exercice précédent.
La loi fait-elle l'objet de critiques ?
Les experts n'ont cessé de se demander si la loi allait donner un coup de pouce à l'IA ou si elle allait peut-être même freiner son développement. Au final, cela dépendra aussi de la mise en œuvre nationale. Le politicien allemand Tobias Bacherle, membre du parti des Verts, a appelé à trouver une réglementation pour la surveillance biométrique basée sur l'IA en Allemagne. Si elle tombait entre de mauvaises mains, elle pourrait facilement être utilisée à mauvais escient pour saper les libertés individuelles, a-t-il déclaré.
Pour le ministre allemand du numérique Volker Wissing, les directives de la loi européenne vont parfois trop loin. "J'aurais souhaité une réglementation plus favorable à l'innovation", a déclaré le politicien du parti libéral FDP à l'agence de presse allemande. "Mais à la fin, il doit y avoir un compromis, c'est mieux que pas de régulation du tout". Il s'agit désormais en Allemagne d'une mise en œuvre aussi "peu bureaucratique" que possible.
En outre, on a critiqué auparavant le fait que de nombreuses prescriptions pourraient bientôt être à nouveau dépassées, compte tenu du développement technique rapide des applications d'IA et de la mise en œuvre progressive des réglementations. La Commission a indiqué qu'elle procéderait à un examen annuel pour déterminer si la liste des applications "à haut risque" devait être révisée ou étendue.