Vom „Spielzeug“ zur Waffe?
KI, also künstliche Intelligenz, bzw. auf Englisch AI, Artificial Intelligence, ist nicht nur eine „nette Spielerei“. Sie bedeutet inzwischen eine ernstzunehmende Bedrohung für die Demokratie, für das Thema Unternehmenssicherheit und genauso für unser Privatleben – etwa durch den Verlust von Privatsphäre, die unkontrollierte Verarbeitung persönlicher Daten und die subtile Beeinflussung unseres Verhaltens.
Damit wird aus KI gleichzeitig eine Art Waffe, kommt bald einer „Währung“ gleich und entwickelt sich weiter zu einem definitiv nicht zu unterschätzenden Machtinstrument. Was mal mit ein paar harmlosen, kleinen Bild-Filterchen anfing, hat bereits unglaubliche und gefühlt unermessliche Dimensionen erreicht. Wo viele Menschen Visionen und unglaublich große Arbeitserleichterungen sehen, bekommen andere tiefgreifende Existenzängste oder Panik vor maximalem Kontrollverlust. Wir scheinen uns von KI so viele tolle Antworten und Ergebnisse zu wünschen, dass wir eines niemals außer Acht lassen dürfen – welche Fragen wir uns (und der KI) vor allem stellen müssen!
Voll verlogen?
Wenn KI so ganz und gar nicht unbegründet Ängste auslöst, dann sind Deepfakes sicher ganz weit vorn in der Liste. Denn digitale Täuschungen und Identitätsdiebstähle machen die „Realität“ definitiv unlustig. So werden nicht nur Gesichter getauscht und Stimmen geklont, sondern ganze Reden verfälscht. Die Gefahr von Parallelwelten mit gefälschten Wahrheiten droht hier unbestritten gefährliche Dimensionen anzunehmen.
Urheberrecht über alles?
Dänemark wird wohl das Urheberrecht auf die eigene Person einführen. Dies geschieht vor dem Hintergrund des rasanten Anstiegs an KI-Technik, der es ermöglicht, überzeugende Deepfakes von Personen mit nur wenigen Sekunden Bild- oder Tonmaterial zu erstellen. Das Rechtssystem Dänemarks verleiht seinen Bürger:innen drei grundlegende Rechte, um wieder Kontrolle über die eigene digitale Identität zu erlangen, und stärkt diese mit drei konkreten Rechtsinstrumenten statt leeren Rechtshülsen.
Klare Konsequenzen
Das dänische Beispiel könnte zum Vorreitermodell für ganz Europa werden: So soll man Rechtskonsequenzen veranlassen können, um Deepfakes mit der eigenen Stimme, dem eigenen Gesicht oder dem eigenen Körper löschen zu lassen. Möglich soll es auch werden, Schadenersatz einzufordern, wenn dadurch ein Schaden entsteht. Zusätzlich könnte es möglich gemacht werden, Plattformen zu belangen, die Inhalte nicht entfernen. Das dient dazu, das Recht am eigenen Gesicht, der eigenen Stimme und der Abbildung des eigenen Körpers aufrechtzuerhalten – auch digital. Konkret würde das bedeuten: (hohe) Geldstrafen für die entsprechenden Plattformen, verpflichtende Takedown-Systeme und eine staatliche Überwachung von KI-Missbrauch. Mitbedacht wurde bei all diesen Ansätzen sogar die Balance zwischen Freiheit und Sicherheit, denn Parodie und Satire bleiben ausgenommen. Im Fokus steht der Schutz der Persönlichkeitsrechte und nicht der Versuch einer „absoluten“ Kontrolle. Als Lösung stehen hier also ganz klare Copyright-Regeln im digitalen Raum.
Shit in, Shit out?
Gefühlt nutzt jeder schon KI – irgendwie. Nun müsste man die Masse schnellstmöglich dazu bringen, die Inputs und Outputs kritischer und reflektierter zu hinterfragen. Denn KI ist nur so klug wie ihre Anwender, oder? Sicherlich ist das Netz bereits überflutet von Tipps, die von den einen beschworen und bereits wieder von vielen verworfen werden, so wie das Thema mit „Bitte und Danke“.
Viel bringt viel?
Wer mit schwammigen Kriterien sucht, wird verwässerte Kriterien erhalten – das dürfte sich nicht geändert haben, auch wenn KI bereits den Suchmaschinen große Konkurrenz macht. Außerdem: Selbst dann, wenn die meisten immer noch eher ein bestimmtes freies Tool bevorzugen, so muss die strategische Nutzung weitergedacht sein. Denn in dynamischen Zeiten wie diesen kann es schnell riskant werden, nur ein Modell zu nutzen. Neben Aspekten wie Sicherheit und Kontrolle sind Freiheit und Unabhängigkeit gerade im Business unabdingbare Faktoren. Außerdem muss die Datenbasis für entsprechende Qualitätsergebnisse nicht nur solide und seriös sein, der Zugriff und die Auswahl dürfen keinesfalls willkürlich und zufällig erfolgen.
Mehr Mega-Prompts?
Die guten und gezielten Vorselektierungen bleiben also wichtig – man kann aber noch weiter gehen, gibt Prof. Dr. Yasmin Weiß, Expertin für digitale Transformation und künstliche Intelligenz, als Tipp. Sie rät für deutlich bessere Ergebnisse im Dialog mit KI zu erweitertem Denken (und Fragen) und dem Einsatz von MegaPrompts – nach dem Motto: „Do not ask AI, let AI ask you!“. Viele wüssten nach ihrem Dafürhalten immer noch nicht, wie man KI nicht nur als Tool verwendet, sondern zu einem echten Co-Worker macht. Auf ihrem LinkedIn-Account findet man regelmäßig Beiträge von ihr, die unabhängig von favorisierten Large Language Models (LLMs) erfolgen. Ihrer Meinung nach sind es oftmals bereits leicht umsetzbare Prozessänderungen, die einen spürbaren Unterschied in der Qualität, Relevanz und Umsetzungsfähigkeit der Ergebnisse beim KI-Einsatz bewirken.
Cooler Co-Worker?
Zu deutlich anderen und besseren Ergebnissen kommt man laut Prof. Yasmin Weiß nur, wenn man es verstanden hat, KI nicht nur als Antwortgeber zu nutzen. Das bedeutet aber gleichzeitig ebenso, die AnwenderSkills dafür zu schärfen und zu trainieren. Denn einfach nur: „Kopf auf und KI rein“ wird nicht funktionieren. Die nächste Stufe wäre dann sogar der eigene Avatar. Hiermit arbeiten mittlerweile auch immer mehr Profis. Weiß sieht aber dennoch bestimmte Grenzen und glaubt nicht, dass dieses Prinzip Menschen auf einer emotional inspirierenden Ebene erreichen oder mitreißen kann: „Avatare können Informationen transportieren, aber nicht inspirieren, identitätsstiftend wirken und Menschen damit auch nicht mitreißen. Faszinierend sind sie am Anfang dennoch.“
Jobkiller oder nicht?
Die Auswirkungen von KI in der Arbeitswelt sind bereits in vollem Gange. Hochrechnungen, wen es in welchem Maße treffen wird, gibt es verschiedene. Grob vereinfacht müsste man also nur auf den KI-Zug aufspringen, um seine Zukunftschancen zu sichern? Es gibt genug Berufe, die gefährdet sind, ohne dass es helfen würde, das Prompt-Schreiben zu lernen. Hier macht KI den Menschen einfach überflüssig. Es entstehen durch KI zwar auch neue Jobs, ein paar Zusatz-Skills werden aber nicht alle gefährdeten Arbeitsplätze retten. Wo Kassenjobs verschwinden, braucht es neue Ersatzprofile, die über ein paar Zusatzschulungen hinausgehen werden. Die strukturellen Veränderungen werden nicht ausgeglichen durch die einfache Erhöhung von KI-Nutzung. Hier sind nicht nur bestimmte Branchen gefragt, nachhaltige und weitreichende Lösungen zu finden. Das nur in die Verantwortung Einzelner zu legen, wird nicht reichen – Wirtschaft und Politik werden sich zum Wohle aller einbringen und handeln müssen.
Mittendrin statt nur dabei?
Es wird einen Rückgang repetitiver Tätigkeiten – auch in den Verwaltungen – geben, Chatbots und Selbst-Scankassen ersetzen jetzt schon zunehmend Callcenter und Kassierer, und in der Produktion macht die Automatisierung nicht nur einfache Helfertätigkeiten überflüssig. KI vermindert ebenso die Notwendigkeit eines menschlichen Einsatzes bei der technischen Steuerung wie auch bei der Überwachung und Qualitätskontrolle. Assistenzsysteme haben längst Einzug gehalten im Gesundheitsbereich, und die Bildungsbranche könnte in Zukunft besonders stark betroffen sein. Selbst in der Sachbearbeitung können Fachaufgaben abgegeben und ausgelagert werden, und auch HR führt immer mehr KI-gesteuerte Prozesse ein, um die Auswahl zu optimieren und den Bearbeitungsaufwand zu reduzieren. Das Weltwirtschaftsforum (WEF) erwartet für den globalen Arbeitsmarkt bis 2027 einen Netto-Jobverlust von 14 Millionen Stellen, trotz der Entstehung von 69 Millionen neuen Arbeitsplätzen, während gleichzeitig 83 Millionen Arbeitsplätze durch diese Veränderungen wegfallen werden.
Mehr als der Mensch?
So ein bisschen „Superhelden“-Spirit schwingt schon mit, wenn KI da ansetzt, wo der Mensch heillos überfordert ist oder nicht vordringen kann. Es beindruckt und trifft uns vielleicht sogar (positiv) emotional, wenn wir dadurch Dinge in den Griff bekommen, wo der Mensch sich sonst immer noch hilflos gefühlt und dies endlich nicht mehr so empfinden muss. So leistet KI zum Beispiel bereits (bisher) „Unglaubliches“ bei der Bekämpfung von Waldbränden, zur Überbrückung von Stromausfällen oder in der Medizin. Auf einmal erschließen sich für uns Bereiche, in denen wir uns nicht mehr so ausgeliefert fühlen und endlich eine andere Art von „Kontrolle“ verspüren. Aber müssen wir deshalb gleich zu sehr zu KI aufschauen? Andersherum dürfen wir uns genauso fragen: „Warum soll Technik das nicht können?“ Nichts anderes war es „historisch gesehen“ vom Prinzip her, als Maschinen in der Industrialisierung körperliche Arbeit erst erleichtert und dann ersetzt haben. Das Weiterentwickeln von Technologien ist trotz mancher „unglaublich“ beeindruckender Ergebnisse und wahnsinniger Fortschrittssprünge in seiner Gesamteinordnung nichts weiter als eine erweiterte Art der Fortschreibung der Geschichte der Informatik.
Sparer oder Sparringspartner?
Schnell mal Zeit beim Posten sparen, ein bisschen Content generieren lassen, ist das jetzt schon richtig clever oder doch bereits armselig „seelenlos“? Hat das noch etwas mit Haltung und Persönlichkeit zu tun? KI, sagen dagegen auch viele, sei doch nur ein nützliches Werkzeug bzw. Hilfsmittel, wie eine Kamera, ein Kugelschreiber oder ein Keil. Einer der Hauptkritikpunkte: Sie könne aber nur nachmachen und nichts Neues „erschaffen“. Ist das jetzt der Wunsch, dass der Mensch in seiner schöpferischen Genialität nicht eingeholt werden kann? Wie sehr dürfen wir uns der KI anvertrauen, mit kühlem Kopf und ohne komisches Bauchgefühl? Immer mehr Menschen würden sich lieber von KI als von Menschen coachen lassen, da diese sie nicht triggert oder bewertet. Damit soll ein „neutrales Lernen“ für den Anwender im Vordergrund stehen. Bedeutet das im Umkehrschluss, dass wir bereits doch (insgeheim) dazu übergehen, uns der Maschine weitaus mehr als dem Menschen anzuvertrauen? Und was sagt das über den Einzelnen und die Gesamtentwicklung aus?
Gleichmacher oder Talente-Turbo?
Zuerst schien es im Bereich der Wissensgewinnung so, als ob es endlich – jenseits von Google und anderen Suchmaschinen – einen gleichwertigen Zugang zu Informationen (auf demselben Level) für jeden gibt. Auch in der Arbeitswelt wurde KI zunächst als Gleichmacher gefeiert, weil man glaubte, dass die Unterschiede zwischen geringqualifizierten und hochqualifizierten Arbeitnehmern ganz einfach nivelliert werden könnten. Die Idee darüber hinaus: Nicht nur könnte jeder zur Spitzenkraft werden, sondern alle könnten das bisherige Niveau so (spielend) übertreffen. Die weitere, „extreme“ Vision: Alle werden sogar bald schon CEOs von Scharen an KI-Agenten werden? Marc Benioff, CEO und Mitbegründer des SoftwareRiesen Salesforce, kündigt an, sein Unternehmen sei auf dem besten Weg, bis Ende 2025 eine Milliarde KI-Agenten zu haben. Ist es also so, dass KI uns definitiv den Rang ablaufen wird?
Alle Macht der KI?
Künstliche Intelligenz wird andersherum CEOs wahrscheinlich nicht ersetzen, glaubt etwa die Hälfte aller Befragten auf der Online-Lernplattform edX. Aber ihre rasante Verbreitung dürfte die Arbeitsweise von CEOs gravierend durch Automatisierung verändern. Zunächst schien auch vieles dafür zu sprechen, dass KI vor allem weniger kompetenten Mitarbeitenden oder Lernenden helfen wird, aufzuschließen.
Es stellte sich aber heraus, dass bereits gut Qualifizierte und Arbeitende keine so großen Steigerungen mehr machen konnten und brauchten im Vergleich zu dem, was sie bereits mitbrachten. Inzwischen scheint erwiesen, dass die tatsächlichen Gewinner woanders verortet sind: Gerade in den komplexen Bereichen sind es doch die Leistungsstärksten, die am meisten profitierten. Denn es sind nicht die vielen Möglichkeiten, auf die es ankommt, sondern die sinnvolle Auswahl – und das letztlich unter Einsatz der eigenen Expertise. Erfahrung und Intelligenz sind also ungebrochen gefragt. Das Massachusetts Institute of Technology (MIT) fand heraus, dass KI-Tools die Produktivität der Top-Forscher verdoppelt haben, während das leistungsschwächste Drittel gleichzeitig leer ausging.
Biest bloß nicht füttern?
,Wo die einen also zunehmend bereitwillig voll auf den KI-Zug aufspringen wollen, sehen andere sich berufen, sich gleichzeitig zu „schützen“. Denn KI ist aus Content und Personal Branding längst nicht mehr wegzudenken. Und so kommt es zu Empfehlungen, die Datenfreigabe einzuschränken, damit die Inhalte oder der Personal Brand ihre Originalität und Einzigartigkeit behalten. Es soll also gleichzeitig verhindert werden, dass KI den eigenen Input für Trainingszwecke verwenden wird, indem jeder für sich selbst die Datenkontrolle behält. Also wählt man ganz „clever“, dass man die Einstellung „Das Modell für alle verbessern“ deaktiviert, aber gleichzeitig von den „anderen Dummen“, die das nicht tun, weiter profitieren möchte – indem man deren Content verwendet und verwertet? Eine seltsame Doppelmoral, bei der man zwar auf vermeintlich gehobenerem Niveau mitspielen, sich aber keinesfalls gewinnbringend für andere oder „das System“ beteiligen möchte. Aber solchen „geheimen Doppelagenten“ wird man wahrscheinlich langfristig nicht mehr so einfach den Luxus des einseitigen Nutzens lassen.
Am Ende gar Schöpfer?
Ein bisschen ist die ganze KI-Debatte wie in Goethes „Faust II“ und der Geschichte des halbfertigen Homunculus. Im künstlich geschaffenen kleinen Menschlein – Teil des Stoffes von historischer Weltliteratur – finden wir das Thema, das den Menschen schon seit Jahrhunderten beschäftigt: der Wunsch von Wissenschaftlern, die Welt zu verstehen und zu beherrschen – in der überhöhten und fantasiegeladenen Jagd nach absoluter Optimierung. Bereits damals – im 19. Jahrhundert (der Urstoff zu Dr. Faustus sogar zurückgehend auf eine Sage aus dem 16. Jahrhundert zurück) – ging es um Forschungen, die immer wieder nach der Macht der Schöpfung suchen und nach dem Ursprung aller Existenz fragen, den Stellenwert des Mittels zum Zweck und das unermüdliche Streben bis hin zur Erschaffung des künstlichen Menschen als Ausdruck des Ideals. Diese Frage nach dem, was die Welt „im Innersten zusammenhält“ und wie weit man gehen kann und darf, ist im Grunde so alt wie die Menschheit selbst – nur müssen jetzt nicht nur die richtigen Antworten gegeben werden, sondern die richtigen Fragen gestellt werden.
Gute KI-Gretchenfrage?
Die Figur Faust steht als Sinnbild für die diese immer wieder zu stellende Frage nach dem Fortschrittsglauben und dem menschlichen Größenwahn – und dessen Gefahren. Bereit, dafür den Pakt mit dem Teufel einzugehen, um seine Ziele zu erreichen, schreckt Faust nicht davor zurück, andere zu instrumentalisieren oder anderen zu schaden – selbst um der vermeintlichen Liebe willen. Analog dazu wird KI nicht nur so intelligent sein wie seine Anwender, sondern uns ebenso stets mindestens so moralisch fordern. Wir dürfen uns nicht von der rasanten Geschwindigkeit einholen lassen, da wir sonst immer selbst zum Spielball unserer eigenen Entwicklungen werden. Genauso wenig sollten nicht aus der Furcht, sich kreatives Potenzial zu versagen, Sicherheit und Vernunft in den Schatten gestellt werden. Das Gesamtspielfeld von KI braucht daher einen wirtschaftlichen und gesellschaftlichen – von der Politik getragenen – Konsens, der nicht nur die Eckpfeiler definiert. Dieser muss auch scharf im Auge behalten, welche Treffer und Tore wir hier wirklich landen wollen – ohne dass uns bereits die Vielfalt an Einsatzgebieten von KI in einem Meer an Möglichkeiten ertrinken lässt.
Logische Lektionen?
Innovationen sollten nicht allein wegen ihres beeindruckenden Leistungs- oder Erscheinungsbildes als unantastbarer Fortschritt gelten. Einfache und spezialisierte Anwendungen müssen daher nicht automatisch (alle) verdrängt werden, weil sie immer noch das Richtige tun können. Eine Innovation etabliert sich erst dann richtig, wenn sie die (entscheidende) Verbesserung bringt, und nicht, weil sie durch Komplexität Bewunderung (durch Blenderei) auslöst und dadurch Gewicht erhält. Echter Fortschritt ist erst dann in Aussicht, wenn das Neue mit dem bereits Bekannten verbunden ist und dadurch maximale Wirkung entfaltet. Und nicht motiviert ist durch die Verwerfung des Bewährten, in (voreiliger) Hoffnung auf etwas noch Besseres und Größeres – auch weil neu immer noch zu oft mit besser gleichgesetzt wird.
Vollkommen verstanden?
Wenn wir die Grenzen von KI nicht wirklich verstehen und nicht wahrnehmen, kommt es zu gefährlichen Verwechslungen. Nur weil etwas gut und überzeugend klingt, ist es längst nicht korrekt – das Hinterfragen weicht viel zu oft der Bequemlichkeit und dem Wunsch nach schnellen und plausibel wirkenden Ergebnissen. Ein System, das Regeln imitiert und typische Muster herausfiltert, greift zwar auf eine gewaltige Datenbasis zu, erfasst aber dennoch nicht die gesamte Realität – und schon gar nicht den Ursprung eines Gedankens mit all seinen Erwägungen und Auswirkungen. Egal, wie gut eine Sache erklärt wird und wie wahrhaftig sie auf den ersten Blick klingen mag, sie wird uns dadurch nicht abhalten, etwas Falsches zu tun, selbst wenn es etwas Illegales wäre. Wir müssen also noch vieles lernen. Bei allem, was wir daraus machen werden (und wollen), muss eines klar sein: Die erste und letzte Instanz sind und bleiben immer wir – sonst sind wir selbst irgendwann das „unkontrollierbare Monster“.
Silvija Franjic, Jobcoach und Fachredakteurin