Der deutsche Bundesrat hat am 21. März 2025 beschlossen, dass die Analysesoftware Vera von Palantir Gesundheitsdaten auswerten darf. Wie golem berichtete bestehe ein „anhaltend dringender sicherheitspolitischer und fachlicher Bedarf“. In Bayern wird diese Software gemäss heise bereits seit dem 25. Dezember 2024 im Echtzeitbetrieb eingesetzt. Was den Messerangriff in Aschaffenburg im Januar 2025 nicht verhindert hat.
Palantir, mit Hauptsitz Denver, Colorado, ist kein Unbekannter bei Geheimdiensten. Peter Thiel hat dies Unternehmen 2004 gegründet und wurde gemäss Wikipedia dabei mit 2 Millionen Dollar vom CIA unterstützt. Neben dem CIA sind dann auch noch DHS, NSA, CDC, Marine Corps, Airforce und viele andere zu Unterstützern und Kunden geworden. Eine Kundensuche auf der Palantir-Website erschliesst einem eine illustre Gesellschaft mit vielen bekannten Namen.
„AI-Powered Automation for Every Decision“ heisst es gross auf der Website von Palantir oder wie der CEO Alex Karp es in einem Brief am 7. April 2023 formulierte:
„Erst durch die Zusammenführung von öffentlichen und geschützten Daten unter Berücksichtigung der besonderen und branchenspezifischen Anforderungen an die Datennutzung in den einzelnen Bereichen wird sich das volle Potenzial und der operative Wert dieser neuen Systeme erschließen.“
Auf Website Police-IT äussert sich Frau Brückner schon seit 2021 kritisch zu Vera. Eine Dame die durchaus Kenntnisse und Erfahrungen zu diesem Thema hat. So war sie seit 1993 im Bereich polizeiliche Informationssysteme tätig und mitverantwortlich für POLYGON.
Selbst wenn man alle Missbrauchsmöglichkeiten ausschaltet, wenn man ignoriert, dass alle Personen, die Anschläge in den letzten Jahren verübt haben, der Polizei oder dem Verfassungsschutz bereits bekannt waren, bleibt das Problem künstliche Intelligenz.
Was man bisher weiss:
- KI’s neigen dazu, zu halluzinieren
- KI’s können Vorurteile übernehmen, abhängig von den Trainingsdaten
- KI’s bewerten aufgrund von Wahrscheinlichkeiten und erreichen im günstigsten Fall eine Trefferquote von knapp 90%, wahlweise Intelligence oder Performance genannt
Man kann also davon ausgehen, dass es einige False Positive und False Negative geben wird. Je nach Menge der Daten, kann das dann schon in die Tausende gehen.
Falls man noch berücksichtigt, dass KI Ergebnisse oft für korrekt gehalten werden oder man aufgrund fehlender Zeit das Ergebnis nicht auf Plausibilität prüfen kann, wird das Szenario Sondereinsatzkommando für jeden Bürger realistisch.
Es werden hier verschiedene Daten verknüpft. Wenn ein möglicher Bias auch noch mit ins Spiel kommt, da die Daten und Trainingsdaten nicht öffentlich überprüft werden können, dann kann es buchstäblich jeden treffen.
Aufgrund eine Halluzination, eines Bias oder auch einer psychologischen Abweichung (viele haben Komplexe und Traumata, werden aber nicht automatisch zu Gewalttätern) landet man, ohne eigenes Zutun möglicherweise in einer Liste von verdächtigen Personen.
Kommen dann noch Jobverlust, Geldprobleme oder Beziehungsprobleme hinzu, gehen vielleicht die Warnlampen bei der KI an und man muss sich in frühen Morgenstunden mit einem Sondereinsatzkommando unterhalten. Sofern da jemand an Unterhaltung interessiert ist.
Zynisch könnte man sagen, die KI macht uns alle gleich. Wir gehören jetzt alle zu den möglichen Opfern oder besser gesagt „Tätern“. Betrifft mich nicht, ich bin doch kein Pädophiler oder Terrorist funktioniert nicht mehr.
Es bleibt jedoch die Hoffnung, dass dies auch dazu führen könnte, das divide et impera nicht mehr lange funktioniert. Wenn alle gleichermassen betroffen sind, gibt es keinen Keil, den man zwischen sie treiben könnte.
Weiterführende Links zum Thema KI:
- https://www.weforum.org/stories/2021/07/ai-machine-learning-bias-discrimination
- https://www.ohchr.org/en/stories/2024/07/racism-and-ai-bias-past-leads-bias-future
- https://artificialanalysis.ai/leaderboards/models
- https://en.wikipedia.org/wiki/List_of_cognitive_biases
- https://lawlibguides.sandiego.edu/c.php?g=1443311&p=10721367