Da ich selbst aktiv in der KI-Forschung tätig bin, gruselt es mich immer bei Beschreibungen wie "Eine Ki ist ein Programm, die KI wird in 4 Typen eingeteilt, die auf der Fähigkeit die Welt wahrzunehmen, dem Selbstbewusstsein, der Erinnerung an die Vergangenheit und der Fähigkeit, sich auf der Grundlage des Lernens zu verbessern, basieren."
Die KI nimmt nichts wahr. Sie hat auch kein kein Selbstbewusstsein oder eine Ratio. Die KI ist streng genommen nicht einmal ein Programm, das wäre die Anwendung, die sich auf die jeweilige KI-Methodik abstützt. Eine KI ist im Kern nichts weiter als ein statistisches Modell -- je nach zugrundeliegender Methodik ein sehr aufwendiges Modell, aber nichts destro trotz weiterhin "nur" eine Gewichtungsmatrix bzw. ein überkandidelter Mustererkenner, welche(r) auf den intendierten Anwendungszweck ausgewählt und trainiert wurde.
Der größte Fehler hier war die Namensgebung. Mit Intelligenz hat das nichts zu tun.
Nur weil das Ding mittlerweile aus textuellen Beschreibungen Code / Bilder / Fließtext erzeugt oder entsprechende Antworten zu geben vermag, ist es dennoch nicht intelligent.
Die Mörder-Modelle wie GPT3/3.5/4 sind auch keineswegs das, was so im Alltag eingesetzt wird für allfällige KI-Helferlein, etwa bildgestützte Kollisionsantizipierung bzw. allgemeine Erkennung / Interpretation von Verkehrssituationen und Intentionen der Verkehrsteilnehmer. Das Ausdünnen ("Pruning") der Modelle sowie Finden einer kleinstmöglichen Parameterdarstellung (also z.B. INT8 statt FP32), dass sie weiterhin hinreichend korrekt arbeiten, aber deutlich an Komplexität (und damit Hardware-/Laufzeitanforderungen) verlieren, ist eine Kunst für sich.
Genau darin liegt aber die Gefahr in der Nutzung durch Anwender (oder Politiker ...), die sich dessen nicht bewusst sind, sondern dann stur der Aussage des Modells glauben. So wie unlängst in den Niederlanden, als Blitzer mit KI-basierter Bilderkennung Knöllchen für Fahren mit Handy am Ohr auslösten, nur weil sich die Person am Kopf kratzte und es für die KI eben so aussah wie ein Handy am Ohr. Oder Fahrassistenten, die den übergroßen Werbeaufkleber auf dem Bus für eine Person direkt vor dem Auto halten bzw. den Schattenwurf der Leitplanke für Fahrbahnmarkierungen.
Und das sind nur die einfach zu erkennenden Fehler ... Wenn sie denn erkannt werden, denn der Computer hat bekanntlich immer recht. Zumindest im Behördenbetrieb.
Entsprechend gibt es mittlerweile Schutzmechanismen, um etwa seine eigenen Daten im Netz vor allfälligem Abgriff zwecks Training irgendwelcher Modelle zu schützen. Mit dem menschlichen Auge sind die entsprechenden Stördaten nicht erkennbar, für die KI wird z.B. bei der Bilderkennung aber aus einer Katze ein Teekessel.
Auch spannend sind Fälle, wo die KI Dinge erkennt, die man -- nach bestem menschlichem Ermessen -- gar nicht im Trainingsdatensatz enthalten glaubte bzw. aus ethischen Gründen gezielt entfernte: Es gab unlängst den Fall einer KI zur Röntgenbilddiagnostik, die Dinge tat, die sie nicht sollte, nämlich die Ethnie der Person zu erkennen. Man hatte diese Daten tunlichst aus dem Trainingsmaterial entfernt, trotzdem konnte die KI weiterhin sehr treffsicher Schwarze erkennen. Es ist weiterhin nicht klar,
wie sie das tut.
"Explainable AI" ist weiterhin ein frommer Wunsch -- und aufgrund der Vielzahl unterschiedlicher Modelle und Ansätze gibt es "die" KI ohnehin nicht.