T I T E LT H E M A die die Sicherheit und Gesundheit in unseren Mitgliedsbetrieben gefähr- den, frühzeitig verhindert werden. Gibt es inzwischen eine allge meingültige Definition von KI? STEIMERS: Eine allgemeingültige De- finition von KI ist im Moment noch nicht in Sicht. Es ist schwierig, alle Methoden, die zum Bereich der KI zählen, in einer Definition zu erfas- sen und dabei eher triviale Techni- ken wie einen Taschenrechner aus- zuschließen. Trotzdem bewegt sich viel auf internationaler Ebene und es lohnt sich, Forschungsprojekte und Entwicklungen zu beobachten. Im Auftrag der DGUV wirke ich in eini- gen Normungsgremien auch selbst mit – zum Beispiel ISO/IEC JTC 1/SC 42 oder CEN/CLC JTC 21. Aktuell wer- den viele Standards, beispielsweise zur Datenqualität geschrieben – die- se sollten wir kennen und prüfen, was für uns verwendbar ist. Beim Thema KI sind noch viele Fragen offen. Ist KI zu komplex für die Praxis oder halten Sie es für eine wichtige Technologie der Zukunft? HAASE: Es ist wie mit allen Technolo- gien: Am Anfang gibt es viele Fragen, verschiedene Meinungen und natür- lich Unzulänglichkeiten. Dies darf aber kein Argument gegen Künstliche Intel- ligenz darstellen. Die ersten Autos, die es gab, sind aus heutiger Sicht abso- lut unzulänglich gewesen. Künstliche Intelligenz bietet neue Möglichkeiten und es wird starke Verbesserungen geben, je mehr Anwendungen im Feld sind. In den DGUV Test Prüf- und Zer- tifizierungsstellen erhalten wir inzwi- schen häufig Anfragen mit KI-Bezug. Diese Prozesse durch entwicklungsbe- gleitende Prüfungen voranzubringen und zu unterstützen stellt eine gro- ße Chance dar und ist unsere Aufga- be. Dafür benötigen wir natürlich ent- sprechende Ressourcen und Expertise in den Prüfstellen. Hier finden Sie die DGUV Test Information 5 zum Thema KI: https://bit.ly/Information5 UVB.dialog 1 | 2023 11 „Wenn das fertige KI-System im Markt etabliert ist, empfiehlt es sich, ähnlich wie in der Medizintechnik oder Pharmazeutik bei neu eingeführten Medikamenten, weiter zu beobachten und systematisch zu dokumentieren, ob und wann Unfälle geschehen. So kann nachträglich optimiert werden.“ Dr. André Steimers DGUV Test Projektgruppe Künstliche Intelligenz Menschen mit allen Hautfarben, alle Geschlechter, Kinder, Menschen im Rollstuhl oder auch verkleidete Men- schen. Ein sogenannter Data-Scientist hat die Aufgabe, die Datenqualität si- cherzustellen und mit der Datenaus- wahl und -aufbereitung die Realität möglichst nah abzubilden – vollstän- dig ist dies fast nicht möglich. Die Prüfung und Zertifizierung eines KI-Systems ist zudem nur möglich, wenn es sich um ein deterministi- sches System handelt: Das Modell des KI-Systems wird zumeist nur in der Entwicklungsphase trainiert und gilt anschließend als fertiggestellt. Nach jeder Anpassung oder Ände- rung eines KI-Systems muss eine Kon- trolle durch den Menschen erfolgen, um die Sicherheit zu gewährleisten. Wenn das fertige KI-System im Markt etabliert ist, empfiehlt es sich, ähnlich wie in der Medizintechnik oder Phar- mazeutik bei neu eingeführten Me- dikamenten, weiter zu beobachten und systematisch zu dokumentieren, ob und wann Unfälle geschehen. So kann nachträglich optimiert werden. Modelle, die sich nach der Implemen- tierung automatisch stetig weiterent- wickeln und verändern, sogenannte weiterlernende Systeme, können wir nicht prüfen und zertifizieren. Denn wir können nicht wissen, wie sich das Modell nach dem Zeitpunkt der Prü- fung und Zertifizierung verhält. Wie kann der Bereich Prüfung und Zertifizierung helfen, die Entwick lung von KI sicher zu gestalten? HAASE: Hier sehe ich insbesondere zwei wichtige Möglichkeiten: Erstens klare Richtlinien, sozusagen „Leit- planken“, zu setzen, mit denen ge- arbeitet werden kann. Und zweitens durch entwicklungsbegleitende Prü- fungen Rückmeldungen zur Sicher- heit eines KI-Systems zu geben. Da- durch können Fehlentwicklungen, m o c . k c o t s . e b o d a – v o k i n n h c v O n a m r e G i : n o i t a r t s u l l I