Analytik NEWS
Das Online-Labormagazin
19.09.2024

09.08.2024

Labormedizin: Was das neue KI-Gesetz in der Praxis bedeutet

Teilen:


Es betrifft den gesamten Bereich der Labormedizin, doch die konkreten Auswirkungen sind nur wenigen Akteuren bekannt: Am 1. August trat das EU-Gesetz zur Künstlichen Intelligenz in Kraft. Damit wird in der Europäischen Union künftig geregelt, was Künstliche Intelligenz darf und was nicht.

Wie sich das Gesetz auf die praktische Arbeit von Programmierern auswirkt, hat nun ein Team um den Informatikprofessor Holger Hermanns von der Universität des Saarlandes und die Juraprofessorin Anne Lauber-Rönsberg von der Technischen Universität Dresden untersucht und in einem Paper veröffentlicht, das im Herbst publiziert wird.

"Der AI Act zeigt, dass die Politik verstanden hat, dass KI auch eine Gefahr sein kann, insbesondere, wenn sie in sensible oder gesundheitlich relevante Bereiche eingreift", sagt Holger Hermanns, Informatikprofessor an der Universität des Saarlandes.

Aber wie wirkt sich der AI Act tatsächlich auf die Arbeit derjenigen aus, die sie erschaffen? "Was muss ich überhaupt lesen von dem Ding?", fasst Hermanns die Frage zahlloser Programmierer zusammen. Denn nicht jeder Programmierer wird sich die (im Deutschen) 144 Seiten starke Verordnung von Anfang bis Ende durchlesen wollen - und können.

Gemeinsam mit seiner Doktorandin Sarah Sterz, der Postdoktorandin Hanwei Zhang sowie Anne Lauber-Rönsberg, Juraprofessorin an der TU Dresden, und ihrem wissenschaftlichen Mitarbeiter Philip Meinel hat Holger Hermanns ein Paper mit dem Titel "AI Act for the Working Programmer" geschrieben, in dem diese Frage im Grundsatz beantwortet wird. Der Kern ihrer Erkenntnis: "Entwickler und Nutzer werden unterm Strich nicht wirklich viel Veränderung spüren", fasst Sarah Sterz zusammen.

Betroffen ist die Labormedizin allemal, denn: "Hauptsächlich bei der Entwicklung sogenannter Hochrisiko-Systeme werden die Vorschriften des AI Act relevant", so die Informatikerin. Das liege daran, dass das europäische KI-Gesetz insbesondere darauf abzielt, die späteren Nutzer eines Systems davor zu schützen, dass eine KI für sie schädlich bzw. ungerecht sein könnte.

Die Regeln für solche Hochrisiko-Systeme, zu der neben der Bewerbungssoftware zum Beispiel auch Kreditscoring-Systeme, Software für medizinische Bereiche oder auch Programme, die den Zugang zu Bildungseinrichtungen wie Universitäten managen, gehören, sind im nun in Kraft tretenden KI-Gesetz streng.

"Zum einen muss sichergestellt werden, dass die Trainingsdaten so sind, dass die daraus trainierte KI tatsächlich auch ihre Aufgabe ordentlich erfüllen kann", so Hermanns. Hier dürfe es zum Beispiel nicht dazu kommen, dass eine Gruppe von Bewerbern diskriminiert wird, weil sie in den Trainingsdaten kaum vorkommen. "Außerdem muss das System aufzeichnen, was genau zu welchem Zeitpunkt passiert, ähnlich wie eine Black Box im Flugzeug", ergänzt Sarah Sterz.

Die Funktionsweise des Systems muss darüber hinaus dokumentiert sein wie in einem klassischen Benutzerhandbuch. Und der Provider, also der Anbieter einer Software, muss dem späteren Betreiber alle Informationen zur Verfügung stellen, damit dieser das System während seiner Benutzung auch ordnungsgemäß beaufsichtigen kann, um Fehler zu erkennen und zu berichtigen. Über diese sogenannte "Human Oversight" haben sich Wissenschaftler jüngst in einem anderen Paper Gedanken gemacht (siehe Link unten).

"Der AI Act schränkt einige Dinge schon sehr maßgeblich ein. Die meisten Anwendungen jedoch werden nur sehr bedingt betroffen sein", fasst Holger Hermanns zusammen. Die erwähnten Hochrisiko-Systeme fallen erst dann unter die Regulierung durch das Gesetz, wenn sie in die "freie Wildbahn" gelangen, wie Sarah Sterz es formuliert. Das heißt: Wenn sie auf den Markt kommen oder in Betrieb genommen werden. In Forschung und Entwicklung, ob staatlich oder privat, wird es nach wie vor keine Beschränkungen geben.

"Ich sehe wenig Risiko, dass Europa durch das KI-Gesetz von der internationalen Entwicklung abgehängt wird", so das Fazit von Holger Hermanns. Im Gegenteil, er und seine Kollegen kommen zu einem wohlwollenden Urteil über das weltweit erste Gesetz, das Künstlicher Intelligenz auf einem ganzen Kontinent einen rechtlichen Rahmen gibt: "Der AI Act ist ein Versuch, KI auf vernünftige Weise zu regulieren, und das ist nach unserem Dafürhalten gut gelungen."

» Verordnung (Originaltext)

Quelle: Deutsche Gesellschaft für Klinische Chemie und Laboratoriumsmedizin (DGKL)