ChatGPT und Co. – Welchen Einfluss hat Künstliche Intelligenz auf Umwelt, Gesellschaft und Politik?

Dieses Thema richtet sich Lehrkräfte für Informatik und Wirtschaft/Politik.

Im Dezember 2022 haben wohl wirklich viele Menschen sehr, sehr viel Zeit im Chat mit der Künstlichen Intelligenz chatGPT verbracht. Insgesamt mehrten sich nach kürzester Zeit begeisterte und weniger begeisterte Berichte. chatGPT kann programmieren, erfindet aber Literaturstellen wie Zeitungsartikel oder wissenschaftliche Arbeiten einfach. chatGPT schreibt fehlerfreie Texte, baut die Quellenverweise aber «selbstbewusst» und als scheinbaren Beleg von Unwahrheiten in die Textausgabe ein. Außerdem gibt es Hacks zur Umgehung der «ethischen» Sicherheitsroutinen — fast schon wie in Star Trek, wo dies ein immer mal wieder üblicher Storytelling-Kniff ist, um aus den gutmütigen künstlichen Lebensformen, wie dem Androiden Data, eine gefährliche Waffe zu machen.
Es ist schon ironisch, dass wir in chatGPT ein großes Hilfsmittel sehen können, gleichzeitig aber es noch viel wichtiger wird, die dadurch gelieferten Informationen gründlich zu prüfen. Macht das nicht eigentlich den Vorteil zu Nichte?
Aber wie werden wir die Technologie und unseren Umgang damit wirklich weiterentwickeln? Was ist mit noch moderneren KI-Generatoren, die auch Bilder, Musik und sogar Videos erstellen können? Wichtig erscheint die Frage, wie sich die Technologien gesellschaftlich konstruktiv entwickeln lassen und damit qualitativen Nutzen jenseits der versprochenen Produktivitätssteigerungen erreichen, die im Übrigen auch zu Lasten anderer erreicht werden. Gemeint sind damit sogenannte Clickworker, die rassistische oder gewaltverherrlichende Inhalte sichten und markieren, damit die «ethischen Subroutinen» funktionieren. In diesem Sinne ist chatGPT vielleicht die eindrucksvollste Demonstration, dass Technik nicht wert-neutral ist, sondern dass Technik immer auch ein Ergebnis des Wertesystems von Entwickler:innen und Nutzer:innen ist. Menschen erzeugen Technik, um damit etwas zu erreichen. Diese Werte sind unweigerlich mit der Technik verknüpft.

Mögliche Fragestellungen

  • Was bedeutet im Rahmen von KI das Wort „generativ“?
  • Lässt sich mit generativer KI auch mehr als eine Produktivitätssteigerung erreichen?
  • Welche Effekte für Gesellschaft, Umwelt und Politik bringt generative KI mit sich?
  • Ist es möglich, Technologien wie chatGPT ohne politische oder moralische Zensur in der Breite zu entwickeln?
  • Macht ein Moratorium zur Beforschung generativer KI Sinn

Literatur zur Vorbereitung auf den Kick-Off

Hannemann, P. (2023, März 7). Mehr Funktionen bei ChatGPT freischalten: So umgehen Sie die Limitationen. chip. https://www.chip.de/news/Mehr-Funktionen-bei-ChatGPT-freischalten-So-umgehen-Sie-die-Limitationen_184654068.html

Landwehr, T. (2023, März 4). Chat-GPT — Der Energiehunger der KIs. sueddeutsche. https://www.sueddeutsche.de/wissen/chat-gpt-energieverbrauch-ki-1.5780744?reduced=true

*Leisegang, D. (2023, Januar 20). Prekäre Klickarbeit hinter den Kulissen von ChatGPT. Netzpolitik.org. https://netzpolitik.org/2023/globaler-sueden-prekaere-klickarbeit-hinter-den-kulissen-von-chatgpt/#netzpolitik-pw

Lüdtke, A. (2015). Wege aus der Ironie in Richtung ernsthafter Automatisierung. In A. Botthof & E. A. Hartmann (Hrsg.), Zukunft der Arbeit in Industrie 4.0 (S. 125–146). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-662-45915-7_13

*Oerding, H. (2023a, Januar 24). ChatGPT schreibt überzeugende Falschinformation. Zeit Online. https://www.zeit.de/digital/2023-01/chatgpt-fake-news-desinformation-newsguard

*Oerding, H. (2023b, März 21). GPT-4 produziert mehr Falschinformationen als Vorgängerversion. Zeit Online. https://www.zeit.de/digital/2023-03/chatgpt-4-falschinformationen-verbreitung-newsguard

Rüsberg (Regisseur). (2023, Februar 13). Erstunken und erlogen: Chat GPT erfindet wissenschaftliche Quellen. In Deutschlandfunk. https://www.deutschlandfunk.de/erstunken-und-erlogen-chat-gpt-erfindet-wissenschaftliche-quellen-dlf-c2303c11-100.html

Van De Poel, I. (2013). Werthaltigkeit der Technik. In A. Grunwald & M. Simonidis-Puschmann (Hrsg.), Handbuch Technikethik (S. 133–137). J.B. Metzler. https://doi.org/10.1007/978-3-476-05333-6_25

Weßels, D. (2022, Dezember 20). ChatGPT – ein Meilenstein der KI-Entwicklung. Forschung & Lehre. https://www.forschung-und-lehre.de/lehre/chatgpt-ein-meilenstein-der-ki-entwicklung-5271

*Wolfangel, E. (2023, Januar 20). Ausgebeutet, um die KI zu zähmen. Zeit Online. https://www.zeit.de/digital/2023-01/chatgpt-ki-training-arbeitsbedingungen-kenia

Wissenschaftlicher Partner

Betreuung des Schulteams durch

Christian Herzog

Prof. Dr. Christian Herzog
Christian Herzog ist ab dem 1.6. 2023 Professor für ethische, rechtliche und soziale Aspekte der Künstlichen Intelligenz am Ethical Innovation Hub der Universität zu Lübeck. Ursprünglich hat er jedoch Ingenieurwissenschaften studiert und auch in dem Bereich einen Doktortitel erworben. Christian Herzog ist davon überzeugt, dass ethische Überlegungen ganz am Anfang einer Innovation stehen sollten. Daher versteht er sein späteres Studium der Angewandten Ethik nicht als Abkehr von der Ingenieurwissenschaften, sondern möchte beide Disziplinen zusammen denken.

Sabrina Blank

Sabrina Blank

Sabrina Blank hat zunächst Wirtschaft & Ethik sowie Sozialwissenschaften in Vechta und im Anschluss Praktische Philosophie in Kiel studiert. Seit 2020 ist sie wissenschaftliche Mitarbeiterin am Ethical Innovation Hub der Universität zu Lübeck. Hier forscht sie an ethischen Fragestellungen im Zusammenhang mit Künstlicher Intelligenz in der Medizin. Darüber hinaus beschäftigt sie sich mit der Frage, wie diese ethischen Fragestellungen bereits während der Entwicklung von Medizintechnik berücksichtigt werden können.

Ihr Kontakt

Tel: 0431-8814 664
Email: yes@zbw-workspace.eu

YES! MINT    Science@Seas-Logo Gefördert vom Bundesministerium für Bildung und Forschung