Zum Hauptinhalt der Seite springen

Glossar und Literatur

Wie über Künstliche Intelligenz sprechen? Das Glossar des "Konstruktiven KI-Kompass" weist den Weg zu wichtigen Begriffen im Kontext von KI. Wer tiefer eintauchen will, findet im Quellenverzeichnis viele Möglichkeiten.

Abstrakte Grafik

Glossar und Stichwortverzeichnis

Algorithmen

Algorithmen sind klar definierte Anweisungs­reihen zur Lösung von Problemen oder Erfül­lung von Aufgaben. Ein Algorithmus erstreckt sich von einfachen Abfolgen von »Wenn-Dann-Bedingungen« bis zu anspruchs­vollen Fol­gen mathematischer Gleichungen. Im Kontext Künstlicher Intelligenz analysieren so genannte Lernalgorithmen große Daten­mengen und erkennen darin Muster, die sie abspeichern. Dieses Abspeichern von erkannten Zusammenhängen wird auch als »lernen« bezeichnet. Das ermöglicht es Maschinen zum Beispiel auch, sprachliche Inhalte zu erfas­sen und Entscheidungen zu formulieren. Lernalgorithmen bilden die Grundlage für maschi­nelles Lernen, tiefe neuronale Netze und natürliche Sprachverarbeitung.

Automatisierung

… erklären wir hier.

Basismodelle (»foundation models«)

Basismodelle (»foundation models«) sind KI-Modelle, die eine Reihe verschiedener Aufgaben erledigen und damit eine Vielfalt an Ergebnissen liefern können wie beispiels­weise Texte, Bilder oder Ton. Sie funktio­nie­ren sowohl für sich genommen, können aber auch Grundlage für andere Anwen­dungen sein (vgl. Jones 2023). Um die Trans­pa­renz und Vergleichbarkeit dieser viel­fältigen KI-Modelle zu verbessern, hat das Stanford Center for Research on Foun­da­tion Models (vgl. CRFM o.D.) einen Trans­pa­renz-Index für Basis­modelle entwickelt, der Standards für Offen­heit und Zugäng­lich­keit in der KI-Entwick­lung setzt.

Bias
Chatbots

Chatbots sind technische Dialogsysteme, die den Austausch zwischen Menschen und Technik mittels gesprochener oder geschrie­bener Sprache ermöglichen. Man unter­scheidet zwischen KI-basierten und regelbasierten Systemen. KI-basierte Chatbots lernen aus Interaktionen und können komplexe Antworten generieren, während regelbasierte Chatbots vordefinierte Antworten auf spezifische Befehle liefern. ELIZA, der erste Chatbot aus den 1960er Jahren, nutzte vorprogrammierte Antworten zur Simulation eines Psychotherapeuten.

Diversity Penalty

… erklären wir im Kapitel „Prompting für Fortgeschrittene“.

Foundation Model

... erklären wir unter Basismodelle im Glossar

GPT

… erklären wir im Kapitel „Transformer“ und im Kapitel „ChatGPT konstuktiv tunen“.

Generativ

... erklären wir im Kapitel „Generative KI“ und im Kapitel „Transformer“.

Halluzination

… erklären wir im Kapitel „Konstruktives Prompt-Engineering“.

Konstruktiver Journalismus

... erklären wir hier.

Large Language Model (LLM)

… erklären wir im Kapitel „Generative KI“ und im Kapitel „Transformer“.

Machine Learning

… erklären wir im hier.

Neuronale Netze

… erklären wir hier und im Kapitel „Deep Learning“.

Parameter

… erklären wir im Kapitel „Prompting für Fortgeschrittene“.

Prompt

… erklären wir im Kapitel „Konstruktives Prompt-Engineering“.

Prompt-Engineering

… erklären wir hier.

Refinement

… erklären wir im Kapitel „Grundlagen: Elemente eines guten Prompts“.

Sprachmodelle (»language models«)

Sprachmodelle (»language models«) sind KI-basierte Computerprogramme, die darauf trainiert sind, menschliche Sprache zu verstehen und zu generieren. Mittels à Künstlicher Neuronaler Netze und vieler Daten entwickeln sie während ihrer Trainingsphase statistische Modelle, mit denen sie die Wahrscheinlichkeit des Auftretens eines Wortes oder Wortteils nach einem gegebenen Textfragment vorhersagen können. So würde ChatGPT nach der Eingabe »Der Himmel ist« das Wort »blau« mit höherer Wahrscheinlichkeit nennen als das Wort »rot«.  Von großen Sprachmodellen oder Large Language Models (LLM) spricht man, wenn die Computerprogramme mit extrem vielen Daten trainiert werden.

Temperatur

… erklären wir im Kapitel „Prompting für Fortgeschrittene

Weiter­führende Inhalte und Quellennachweise

  1. Avelar, Victor/Patrick Donovan/Paul Lin/Wendy Torell/Maria A. Torres Arango (2023): The AI Disruption: Challenges and Guidance for Data Center Design, Schneider Electric Energy Management Research Center, [online]
    https://download.schneider-electric.com/files?p_Doc_Ref=SPD_WP110_EN&p_enDocType= White+Paper&p_File_Name=WP110_V2.1_EN.pdf
  2. Baumgartner, Katharina (2024): In den Kaninchen­bau und wieder hinaus, in: Marie-Sophie Adeoso/Eva Berendsen/Leo Fischer/Deborah Schnabel (Hrsg.), Code & Vorurteil: Über Künstliche Intelli­genz, Rassismus und Antisemitismus, Verbrecher Verlag, S. 125–136. 
  3. Beckett, Charlie (2019): New powers, new responsibilities: A global survey of journalism and artificial intelligence, London School of Economics and Political Science, [online]. Zum Download verfügbar unter: https://blogs.lse.ac.uk/polis/2019/11/18/new-powers-new-responsibilities/ [abgerufen am 3. Juni 2024].
  4. Beckett, Charlie/Mira Yaseen (2023): Generating Change: A global survey of what news organisations are doing with AI, London School of Economics and Political Science, [online]. Zum Download verfügbar unter: https://www.journalismai.info/research/2023-generating-change [abgerufen am 3. Juni 2024]. 
  5. Becker, Kim Björn/Felix M. Simon/Christopher Crum (2023): Policies in Parallel? A Comparative Study of Journalistic AI Policies in 52 Global News Organisations [Preprint]. Verfügbar unter: https://osf.io/preprints/socarxiv/c4af9 [abgerufen am 24. Mai 2024].
  6. Bedford-Strohm, Jonas/Uli Köppen/Cécile Schneider (2020): Ethik der Künstlichen Intelligenz: Unsere KI-Richtlinien im Bayerischen Rundfunk, in: Bayerischer Rundfunk, 30. November 2020, [online] https://br.de/extra/ai-automation-lab/ki-ethik-100.html.
  7. Bender, Emily M./Timnit Gebru/Angelina McMillan-Major/Shmargaret Shmitchell (2021): On the Dangers of Stochastic Parrots: Can Language Models be Too Big? in: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT 21), S. 610-623. https://doi.org/10.1145/3442188.3445922 [abgerufen am 24. Mai 2024]. 
  8. Bommasani, Rishi/Kevin Klyman/Shayne Longpre/Sayash Kapoor/Nestor Maslej/Betty Xiong/Daniel Zhang/Percy Liang (2023): The Foundation Model Transparency Index [Preprint]. Verfügbar unter: https://arxiv.org/abs/2310.12941 [abgerufen am 24. Mai 2024].
  9. Brammer, Robert (2023). Die Macht der Computer. Zum 100. Geburts­tag von Joseph Weizenbaum, in: Deutschlandfunk Kultur. Aus den Archiven, 14. Januar 2023, [online] https://deutschlandfunkkultur.de/weizenbaum-100.html [abgerufen am 29. Mai 2024]. 
  10. Brooks, Rodney (2018): Die Ursprünge der Künstlichen Intelligenz, in: reframe Tech, 22. November 2018, [online] https://reframetech.de/2018/11/22/die-urspruenge-der-kuenstlichen-intelligenz/ [abgerufen am 18. April 2024].
  11. Burgess, Matt/Reece Rogers (2024): How to Stop Your Data From Being Used to Train AI, in: Wired, 10. April 2024, [online] https://wired.com/story/how-to-stop-your-data-from-being-used-to-train-ai/ [abgerufen am 17. Mai 2024].
  12. Clarke, Seán/Dan Milmo/Garry Blight (2023): How AI chatbots like ChatGPT or Bard work – visual explainer, in: The Guardian, 2. November 2023, [online] https://theguardian.com/technology/ng-interactive/2023/nov/01/how-ai-chatbots-like-chatgpt-or-bard-work-visual-explainer [abgerufen am 24. Mai 2024].
  13. Center for Research on Foundation Models [CRFM] (o. D.): Foundation Model Transparency Index, [online] https://crfm.stanford.edu/fmti/ [abgerufen am 16. Mai 2024].
  14. Commissariat à l’énergie atomique et aux énergies alternatives [CEA] (2018): [Histoire des sciences] L’histoire de l’intelligence artificielle (IA) [YouTube], https://youtube.com/watch?v=qmwJx-r5vmw.
  15. Common Crawl (2024): Overview, [online] https://commoncrawl.org/overview [abgerufen am 24. Mai 2024].
  16. Council of Europe (2023): Guidelines on the responsible implementation of artificial intelligence systems in journalism,  [online] https://rm.coe.int/cdmsi-2023-014-guidelines-on-the-responsible-implementation-of-artific/1680adb4c6.
  17. DataScientest (2023): Künstliche Intelligenz: Definition, Geschichte, Chancen und Risiken, in: DataScientest, 8. August 2023, [online] https://datascientest.com/de/kuenstliche-intelligenz [abgerufen am 18. April 2024].
  18. De Vries, Alex (2023): The growing energy footprint of artificial intelligence, in: Joule, Bd. 7, Nr. 10, S. 2191–2194, https://doi.org/10.1016/j.joule.2023.09.004.
  19. Der Spiegel (2021): Einzelanalysen für alle 299 Wahlkreise, in: Der Spiegel, 27. September 2021, [online] https://spiegel.de/politik/deutschland/bundestagswahl-2021-alle-wahlkreis-ergebnisse-der-btw-a-6c222d37-87d8-4d85-bec9-3d95e6e0eefa [abgerufen am 24. Mai 2024].
  20. Deutscher Journalisten-Verband [DJV] (o.D.): Positionspapier bezüglich des Einsatzes Künstlicher Intelligenz im Journalismus, [online]. Zum Download verfügbar unter: https://djv.de/medienpolitik/kuenstliche-intelligenz/ [abgerufen am 24. Mai 2024]. 
  21. Deutscher Presserat (2024): Jahresbericht 2023, [online] https://www.presserat.de/files/presserat/bilder/Downloads%20Jahresberichte/DPR-2024-Jahresbericht%202023_BF.pdf [abgerufen am 24. Mai 2024].
  22. Diakopoulos, Nicholas (2019): Automating the News: How Algorithms are Rewriting the Media, Harvard University Press.
  23. Facklam, Anton Yong (2024): „Superintelligenz“ bei Meta: Mark Zuckerberg plant KI-Revolution, in: CHIP, 31. Januar 2024, [online] https://chip.de/news/Kuenstliche-Intelligenz-bei-Meta-Mark-Zuckerberg-plant-AGI-Revolution_185116013.html [abgerufen am 23. April 2024].
  24. Fraunhofer-Institut für Kognitive Systeme [IKS] (2024): Künstliche Intelligenz (KI) und maschinelles Lernen, [online] https://iks.fraunhofer.de/de/themen/kuenstliche-intelligenz.html [abgerufen am 18. April 2024].
  25. Gartner (2022): Gartner Unveils Top Predictions for IT Organizations and Users in 2023 and Beyond, 18. Oktober 2022, [online] https://gartner.com/en/newsroom/press-releases/2022-10-18-gartner-unveils-top-predictions-for-it-organizations-and-users-in-2023-and-beyond [abgerufen am 28. Mai 2024]. 
  26. Haustein-Teßmer, Oliver (2024): Digitaler Erfolg im Lokaljournalismus – Leitfaden für Praxis und Ausbildung in Redaktionen, Springer VS.
  27. Heinrichs, Ellen (2018): Wir müssen reden: über Künstliche Intelligenz und Ethik im Journalismus, in: Medium, 30. Oktober 2018, [online] https://ellen-heinrichs.medium.com/https-medium-com-ellen-sch-medienethik-und-ki-c953c2d70fba [abgerufen am 24. Mai 2024]. 
  28. Jones, Elliot (2023): Explainer: What is a foundation model?, Ada Lovelace Institute, 17. Juli 2023, [online] https://adalovelaceinstitute.org/resource/foundation-models-explainer/#_ftn5 [abgerufen am 24. Mai 2024].
  29. Klofat, Aleksandra (2023): Wie funktionieren Transformer? Definition und Praxis, in: Informatik Aktuell, 16. Mai 2023, [online] https://informatik-aktuell.de/betrieb/kuenstliche-intelligenz/wie-funktionieren-transformer-definition-und-praxis.html#c40768 [abgerufen am 24. Mai 2024].
  30. Landesanstalt für Medien NRW (2024): Akzeptanz von Prozess-Automatisierung und künstlicher Intelligenz in der Medienbranche, [online] [Download].
  31. McBride, Kelly (2024): Your newsroom needs an AI ethics policy. Start here., Poynter Insitute, 25. März 2024, [online] https://poynter.org/ethics-trust/2024/how-to-create-newsroom-artificial-intelligence-ethics-policy/ [abgerufen am 24. Mai 2024].
  32. McCarthy, John/Marvin L. Minsky/Nathaniel Rochester/Claude E. Shannon (1955): A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, [online] http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf.
  33. OpenAI (2018): AI and compute, 16. Mai 2018, [online] https://openai.com/index/ai-and-compute/ [abgerufen am 31. Mai 2024].
  34. Patterson, David/Joseph Gonzalez/Urs Hölzle/Quoc Le/Chen Liang/Lluis-Miquel Munguia/Daniel Rothchild/David So/Maud Texier/Jeff Dean (2022): The Carbon Footprint of Machine Learning Training Will Plateau, Then Shrink [Preprint]. Verfügbar unter: https://arxiv.org/abs/2204.05149 [abgerufen am 31. Mai 2024]. 
  35. Porlezza, Colin (2024): The datafication of digital journalism: A history of everlasting challenges between ethical issues and regulation, in: Journalism, Bd. 25, Nr. 5, S. 1167-1185, https://doi.org/10.1177/14648849231190232.
  36. Precedence Research (2024): Artificial Intelligence (AI) in Hardware Market Size to Reach USD 473.53 Bn By 2033, in: globenewswire.com, 6 März 2024, [online] https://www.globenewswire.com/news-release/2024/03/06/2841613/0/en/Artificial-Intelligence-AI-in-Hardware-Market-Size-to-Reach-USD-473-53-Bn-By-2033.html [abgerufen am 31. Mai 2024].
  37. Reporter ohne Grenzen (2023): Paris Charta on AI and Journalism, [online] [Download]
  38. Rinehart, Aimee/Ernest Kung (2022): Artificial Intelligence in Local News: A survey of US newsrooms’ AI readiness, The Associated Press, [online]. Zum Download verfügbar unter:
    https://doi.org/10.13140/RG.2.2.16926.82246.
  39. Schweizer Presserat (2024): KI im Journalismus: Leitfaden, [online] https://presserat.ch/journalistenkodex/ki_leitfaden/ [abgerufen am 17. Mai 2024].
  40. Seward, Zach (2024): AI news that’s fit to print: The New York Times’ new AI leader on what this powerful tech can do for journalism, Reuters Institute for the Study of Journalism, 13. März 2024, [online] https://reutersinstitute.politics.ox.ac.uk/news/ai-news-thats-fit-print-new-york-times-new-ai-leader-what-powerful-tech-can-do-journalism [abgerufen am 27. März 2024].
  41. Stieler, Wolfgang/Katharina Zweig (2024, 28. März): Deep Dive: Für eine Zukunft nach ChatGPT und Co. [Audio-Podcast], MIT Technology Review – Der Podcast, [online] https://tech2go.podigee.io/105-neue-episode.
  42. Strubell, Emma/Ananya Ganesh/Andrew McCallum (2019): Energy and Policy Considerations for Deep Learning in NLP [Preprint]. Verfügbar unter: https://arxiv.org/abs/1906.02243 [abgerufen am 31. Mai 2024].
  43. TRG Datacenters (2023):  AI Chatbots: Energy usage of 2023’s most popular chatbots (so far), [online] https://www.trgdatacenters.com/resource/ai-chatbots-energy-usage-of-2023s-most-popular-chatbots-so-far/ [abgerufen am 31. Mai 2024].
  44. Turing, Alan M. (2023): Computing Machinery and Intelligence – Können Maschinen denken? Englisch/Deutsch (2., durchges. und erg. Aufl.), Reclam. 
  45. Weber-Wulff, Debor/Alla Anohina-Naumeca/Sonja Bjelobaba/Tomáš Foltýnek/Jean Guerrero-Dib/Olumide Popoola/Petr Šigut/Lorna Waddington (2023): Testing of detection tools for AI-generated text, in: International Journal for Educational Integrity, Bd. 19, Nr. 26, 
    https://doi.org/10.1007/s40979-023-00146-z.
  46. Whittaker, Meredith (2023): Vermessung bis ins Innerste, in: netzpolitik.org, 7. Juni 2023, [online] https://netzpolitik.org/2023/kuenstliche-intelligenz-vermessung-bis-ins-innerste/ [abgerufen am 24. Mai 2024].
  47. Zentrum für vertrauenswürdige Künstliche Intelligenz [ZVKI]: Glossar, [online] https://zvki.de/ki-navigator/unsere-inhalte/glossar [abgerufen am 29. Mai 2024]. 
  48. Zweig, Katharina (2023): Die KI war’s! Von absurd bis tödlich: Die Tücken der künstlichen Intelligenz (4. Aufl.), Heyne.

Konstruktiver KI-Kompass

Künstliche Intelligenz verstehen und nutzen, um die eigene journalistische Arbeit konstruktiver zu machen – das bietet der Konstruktive KI-Kompass.

Unsere Inhalte gibt es alle online. Zudem steht das geballte Wissen im gleichnamigen E-Book kostenlos zum Download bereit:

Übersicht und Download