Der Vortrag zeigt in Form einer Zeitreise die Entwicklung von Neuronalen Netzen bis hin zu Transformern und der Architektur von ChatGPT und LLMs (Large Language Models). Wir bleiben dabei nicht auf einer oberflächigen Ebene sondern gehen vollständig ins Detail, bleiben aber allgemein verständlich.
Sprachmodelle und deren Funktionsweise sollten für Open Source Devs nicht nur verfügbar, sondern auch vollständig verständlich sein.
Das Themengebiet der Neuronalen Netze ist zwar recht mathematisch und eine Aufarbeitung aller notwendigen Wissenselemente komplex. Wir bewältigen die Komplexität mit Hilfe des Stilmittels einer Zeitreise. Dabei werden die Entwicklungen, beginnend ab 1900, bis hin zu aktueller Technologie schrittweise erklärt. Die Meilensteine, die dazu geführt haben, dass wir heute KI in Form von Open Source Sprachmodellen verfügbar haben, werden dabei beleuchtet. Damit das ganze sowohl präzise als auch allgemeinverständlich bleibt verwenden wir sowohl eine bildhafte also auch eine präzise mathematische Darstellung.
Teilnehmende brauchen keine speziellen Vorkenntnisse. Alle Teilnehmenden sollten nach dem Vortrag eine sehr gute Vorstellung haben wie LLMs und KI-Chatbots funktionieren. Open Source Devs werden nach dem Vortrag Sprachmodelle nicht nur in ihre Software integrieren können sondern auch verstehen wie das ganze funktioniert.