Imre Sinka von der Interessengruppe Web des SWICO begrüsst im Westside Co-Working eine sehr grosse, interessierte Zuhörerschaft zum Thema KI in der Content-Erstellung.
Inhaltsverzeichnis
Tiefe neuronale Netze

Benjamin Grewe lehrt an der ETH Zürich Deep Neuronal Networks und erklärt deren Prinzip auf sehr einleuchtende Weise.
Tiefe neuronale Netze funktionieren ähnlich wie unsere menschlichen Synapsen im Hirn. Die Verbindungen zwischen den Neuronen sind gewichtete Classifier.
Die Trainingsmethoden solcher Modelle legen die Gewichtung der Verbindungen fest mit Werten zwischen -1 und +1 und wieviele Schichten ein neuronales Netz überhaupt haben sollte.
Machine Learning Algorithmen werden anhand von Trainingsdaten für bestimmte Zwecke geschult, z.B. dem Erkennen eines Hundes in einem Foto. Dies funktioniert über die Mustererkennung typischer Signale.
Neuronale Netze sind dann tief, wenn sie mehr als einen versteckten Layer haben zwischen der Eingangsschicht und der Ausgangsschicht (input und output layer). ChatGPT hat 92 versteckte Layer.
Einen Hund in einem Foto zu erkennen ist eine Sache. Darin aber auch Katzen oder sonstige Objekte zu erkennen ist eine andere. Mit einem einzigen Classifier ist das nicht mehr zu machen. Deshalb werden in neuronalen Netzen viele Classifier (Neuronen) parallel geschaltet und über mehrere Layer geschichtet.
Beim Trainieren des Modells werden Daten analysiertund optimiert, solange der Fehler immer kleiner wird entlang einer «Fehlerparabel».

Die Erkennung von Sprache (natural language processing NLP) oder das Spielen von Go funktionieren auf demselben Prinzip (reinforcement learning).
«Transformer-Netzwerke» wie ChatGPT sind tiefe neuronale Netzwerke mit dem Zusatz (Transformer), dass sie das nächstwahrscheinliche Wort berechnen. D.h. moderne Übersetzungsprogramme übersetzen nicht mehr ganze Sätze, sondern berechnen laufend das nächstwahrscheinlichste Wort basierend auf dem Wissen von bisher geschriebenem Text (autoregressive language model).
Large Language Models LLMs verfügen über die zusätzliche Funktionalität, dass sie den Kontext über lange Textpassagen überblicken und deshalb zusammenhängende Texte generieren können.
GPT-Tools wie ChatGPT eignen sich bereits für viele anspruchsvolle Zwecke wie Text-, Code- oder die Bilderstellung.
- Zusammenfassen von Texten und Ändern des Textstils oder der Sprache
- Eine Liste von Schlüsselsätzen in einen zusammenhängenden Text verwandeln
- Brainstorming von Ideen zu einem bestimmten Thema
- Kreatives Schreiben, Erstellen von Romanen, Essays, Drehbüchern für Filme usw.
- Schreiben und Überprüfen von Programmcode
- Beantworten von Fragen (Vorsicht!)
- Schreiben von Texten und Anpassen von Texten an einen anderen Kontext
- Erstellen von Kunstwerken (Gemälden) in Zusammenarbeit mit anderen KI-Tools
- Erklären schwieriger Konzepte
- Erstellen von Standards (z. B. juristische Dokumente, Verzichtserklärungen)
Weniger gut geeignet ist ChatGPT aktuell für mathematische Zusammenhänge, Begründungen, faktenbasierte Inhalte und für Wissen aus der realen Umwelt.
Auf der Seite neuralnetworksanddeeplearning.com finden sich weiterführende, einfach geschriebene Informationen zum Thema neuronale Netzwerke und Deep Learning.
Anwendungsfälle von KI-Systemen
Roy Voggenberger von Unic zeigt Anwendungsfälle mit Kundenmehrwert von KI-Systemen.
Das Vorgehensmodell für die Operationalisierung künstlicher Intelligenz basiert auf ader Domänenkenntnis: Will man Tumore mit KI erkennen, braucht es das entsprechende Hintergrundwissen und einen Nutzen für die Kunden.
KI-Projekte sollte man klein starten mit einer kleinen, einfachen Datenbasis. Darauf beginnt man zu lernen und baut die Funktionen von einem MVP (minimum viable product) zu einer vollständigen Lösung aus.
Versicherungen bieten inzwischen intelligente Chatbots in der Kundenkommunikation ein, Reiseanbieter lassen Kunden die Reisen via Chatbots zusammenstellen.

KI und Suchmaschinenoptimierung
Gregor Meier ist ursprünglich Jurist, hat aber schnell auf Affiliate-Marketing umgestellt und Suchmaschinenoptimierung SEO.
Bei der Suchmaschinenoptimierung ist zu beachten, dass GPTs Sprachmodelle sind, aber nicht Wissensmodelle.
Bei E-Commerce Webseiten braucht es sehr viele kurze Produktbeschriebe. Dafür sind LLMs bestens geeignet.

Referenten
Benjamin Grewe
Professor of Neural Learning and Intelligent Systems ETH und UZH. Benjamin Grewes primärer Forschungsschwerpunkt liegt auf dem Verständnis der Grundlagen der Informationsverarbeitung und Gedächtnisbildung in neuronalen Netzwerken.
Roy Voggenberger
Als Digital Leader und E-Business-Enthusiast bei der Unic schafft Roy Voggenberger geschäftlichen Mehrwert und gestaltet elektronische Geschäftsmodelle, u.a. auch mit KI.
Gregor Meier
Seit 10 Jahren ist Gregor Meier für verschiedene Marketing-Agenturen als SEO- und Social-Media-Berater tätig und hat diverse Projekte im Bereich Content Generierung mit KI realisiert.
Danke Giancarlo Palmisani von SWICO und Alex Schöpf von 4Results Marketing Automation für die Einladung!