Die Dinge richtig tun
KI Ethik und Governance
Der wesentliche Unterschied zwischen traditioneller Informationstechnologie und KI ist, dass man bei ersterer in der Regel Entscheidungen nachvollziehen kann. Mit IF, THEN und ELSE sind die meisten Handlungen (und Fehler) reproduzierbar. Im Gegensatz dazu beruht künstliche Intelligenz auf dem Versprechen, dass das Ergebnis eines Prozesses nicht vollständig vorhersehbar ist.
Zusammen mit den außerordentlichen Fähgigkeiten der KI führt das zu erheblichen Risiken. Es gibt Experten, die in der künstlichen Intelligenz das Potenzial sehen, die Menschheit auszulöschen. Wir würde eher sagen, dass Menschen die KI unangemessen nutzen könnten, und damit enormen Schaden anrichten. Die Verantwortung liegt letzten Endes bei uns.

Herr, die Not ist groß!
Die ich rief die Geister,
Werd ich nun nicht los.
Der Zauberlehrling, Johann Wolfgang von Goethe (1797/98)
KI macht Fehler, und zwar solche, die oft schwer zu erkennen sind. weil die meisten Modelle die Logik ihrer Handlungen nicht umfassend offenlegen. Wenn das zu Fehlern im Handeln von Mitarbeitenden führt, zu schlechten Kundenerlebnissen, oder zu verpassten Chancen, dann hat das negative Auswirkungen auf das Geschäftsergebnis.
Because it is used and set up so quickly and easily, it, in turn, requires more time for testing and governance than conventional solutions. We regularly encounter this when conducting Chatbot Audits, wo eine Mehrzahl von Bots erhebliche Probleme zeigt, die einfach vermeidbar wären.
Ethische Themen spielen ebenfalls eine wichtige Rolle. Es geht darum, wie künstliche Intelligenz Entscheidungen trifft. Verfügt sie über verzerrte Inputs oder produziert sie verzerrte Entscheidungen? Wie handhabt sie Stress beim Benutzer? Was, wenn sie in einer kritischen Situation die falschen Ratschläge erteilt, zum Beispiel bei medizinischen Notfällen oder im Kontakt mit Personen in einer psychischen Krise? Die Beantwortung dieser Frage ist bei der Einführung von KI sehr wichtig.
Der KI-Einsatz wirft also deutlich größere ethische und rechtliche Fragen auf. Wenn man künstliche Intelligenz nutzt, muss man zusätzliche datenschutzrechtliche und KI-Regulierungen beachten (z.B. den EU AI Act). Die Tatsache, dass viele KI-Modelle Daten in die Cloud transferieren, hat zusätzliche Konsequenzen für den Datenschutz. Deshalb braucht es beim Einstaz von KI klare Governance- und Ethikrichtlinien. Mit unserer Erfahrung können wir dabei helfen, dass KI nicht zum unkalkulierbaren Risiko wird.
Darüber hinaus sind KI-Systeme auch potentielle Eintrittspforten für Internetkriminalität mit hohem Risiko. Wenn sie nicht spezifisch geschützt werden, sind zum Beispiel Sprachmodelle nur zu gerne bereit, Interna auszuplaudern und einem gewieften Fragesteller zu erklären, wie sie funktionieren.
Wenn KI Fehler macht
Während wir normalerweise menschliche Fehler als normal hinnehmen, ist die Gesellschaft nicht so tolerant, wenn es um technisches Versagen geht. Dies ist vor allem so, wenn Menschneleben gefährdet werden. Hersteller von selbstfahrenden Autos haben das Problem aus erster Hand erfahren. Während menschliches Autofahren ein dynamischer Prozess ist, bei dem wir ein gewisses Risiko als gegeben akzeptieren, ist das bei autonomen Fahrezugen weniger der Fall. Deshalb bremsen selbstfahrende Autos auch manchmal in Situationen, in denen wir Menschen nicht mit der Wimper zucken und weiterfahren. Das hat dazu geführt, dass Aufprallunfälle mit selbstfahrenden Autos häufiger sind als im Durchschnitt, weil die überraschten Hintermänner eine übervorsichtige Bremsung nicht erwartet hätten.
Wenn wir KI-Lösungen entwickeln, muss dieser gesellschaftliche Kontext unbedingt berücksichtigt werden, vor allem wenn durch Handeln oder Nichthandeln der KI Schäden entstehen können.
Kernthemen KI-Governance und Ethik
Die folgenden wichtigen Punkte sind bei der KI-Nutzung unbedingt zu berücksichtigen. Dies soll nicht bedeuten, dass man auf die Nutzung der Technologie verzichten sollte, denn die Vorteile überwiegen in den meisten Fällen. Nicht genügend in die Problemvermeidung zu stecken, kann allerdings sehr teuer werden.
Datenschutz
1
Durch künstliche Intelligenz entstehen ganz neue Datenschutzrisiken. Viele Prozesse, gerade im Bereich LLMs, beruhen auf Cloud-Daten und finden ebenso wieder in der Cloud statt, und folgen im Gegensatz zu normaler Verarbeitung oft keinen nachvollziehbaren Algorithmen. Wenn kritische Kunden- oder Mitarbeiterdaten auf diese Art verarbeitet werden, benötigt es in vielen Fällen die spezifische Zustimmung der Betroffenen. Hinzu kommt, dass KI-Entscheidungen nicht immer vollständig nachvollziehbar und reproduzierbar sind. Die Datenverarbeitungs- und Datenschutzrichtlinien bedürfen deshalb oft der Anpassung.
Governance (und der EU AI Act)

As much as we set rules for human behavior, we have to establish the same for AI systems. Solid governance rules and controls are thus required, particularly as some aspects also fall under binding regulatory frameworks. Among them are data protection regulations, but equally more specific AI-related rules, such as the EU AI Act.
2
Haftungsrisiken
3
Handlungen der künstlichen Intelligenz mit negativen Auswirkungen auf Dritte werden zu einem Haftungsproblem für ein Unternehmen wie andere Fehlhandlungen auch, es gibt kein "Die KI war's" als Ausrede. Ganz im Gegenteil: weil unsere Gesellschaft Fehler autonomer Maschinen höher gewichtet als menschliches Versagen, dürften Gerichtsurteile zu KI-Fehlern deutlich ausfallen. Eine sorgfältige Risikoabwägung und weitreichende Sicherheitsvorkehrungen sind deshalb immer da unabdingbar, wo wir künstlicher Intelligenz zum Beispiel die Kontrolle über Maschinen geben. Dies sollte uns nicht an der Nutzung von KI hindern, weil diese - sinnvoll eingesetzt - durchaus Gefahren frühzeitig erkennen und abwenden kann, aber dennoch müssen diese Risiken bedacht werden.
Reputationsrisiken

Eines der Schlüsselrisiken der KI-Nutzung ist, dass eine "Black Box" Dinge tut oder kommuniziert, die man nicht möchte, und die außerhalb definierter Geschäftsprozesse ablaufen. Dies kann entweder dadurch geschehen, dass ungenügend getestete KI-Systeme schlechte Entscheidungen treffen oder gar zu autonom von öffentlich oder intern akzeptierten Normen abweichenden Schlüssen kommen.
4