Acceptance test-driven LLM development - David Faragó
"Das ist relativ anspruchsvoll. Letzten Endes haben wir ein paar Komponenten. Wir machen zuerst Speech-to-Text und dann auf reiner Textbasis benutzen wir ein Language-Model." - David Faragó
Vorab: Entschuldigt die schlechte Audio-Qualität, das ist uns leider erst im Nachgang aufgefallen. Ich hoffe, der Inhalt tröstet Euch darüber hinweg :-) Die Entwicklung von Large Language Models (LLMs) und die Rolle von Acceptance Test Driven Development (ATDD) sind zentrale Themen in der KI-Entwicklung. David, Experte in der Entwicklung und Qualitätssicherung von KI-basierten Telefon-Bots für Arztpraxen, teilt seine Erfahrungen und Einblicke in diesen Prozess. Die Herausforderungen und Lösungsansätze beim Trainieren und Testen von LLMs, einschließlich der Nutzung von Prompt Engineering und Fine Tuning, werden beleuchtet. Besonders bemerkenswert ist der Ansatz, ATDD-Methoden auf LLM-Entwicklungen anzuwenden, um die Qualität und Effektivität der Modelle zu verbessern. Ein weiterer Fokus liegt auf dem CPMAI-Prozess, der eine moderne Herangehensweise an die Entwicklung und Implementierung von KI-Projekten darstellt.
David ist Deep-Learning-Engineer bei mediform, spezialisiert auf Fine-Tuning von Large-Language-Models, Prompt-Engineering und Microservices. Nebenbei leitet er QPR Technologies, ein Beratungsunternehmen für innovative Qualitätssicherung, und ist Mitglied des Leitungsgremiums der GI-Fachgruppe Test, Analyse und Verifikation.
Themen im Podcast:
Werde jetzt Teil der Podcast-Community und hol Dir exklusive Vorteile: https://swt.fm/com
Kontakt zu David:
Die Podcast-Website: https://www.software-testing.fm
Danke an die Community-Partner des Podcasts:
Credits:
Create your
podcast in
minutes
It is Free