In dieser Folge spreche ich mit ChatGPT4o über die faszinierende Welt der künstlichen Intelligenz. Wir klären die technischen Grundlagen von LLMs, ziehen bizarre Analogien zu Dungeons und Dragons und merkwürdig betonten Bibliothekaren. Im technische Teil haben wir uns gefragt, was eigentlich hinter Begriffen wie Parametern und Tokens steckt. Warum sind Milliarden Parameter so wichtig? Und Tokens? Und Context-Length? RAGs und Fine-Tuning? Wir haben auch über die praktische Seite gesprochen: Was bedeutet es, wenn man solche Modelle im echten Leben einsetzen möchte? Hardwareanforderungen und warum größere Modelle nicht immer gleich auch besser sein müssen.