
#72: TabPFN: Die KI-Revolution für tabulare Daten mit Noah Hollmann
Wir sprechen mit Noah Hollman von Prior Labs, einem der Schöpfer von TabPFN (Tabular Prior Fitted Network), über dieses bahnbrechende Foundation-Modell für tabulare Daten. In der Diskussion geht es um die Funktionsweise von TabPFN, die Rolle von In-Context Learning, die Herausforderungen bei der Anwendung der Transformer-Architektur auf tabulare Daten sowie die Generierung synthetischer Daten mit strukturellen kausalen Modellen (SCMs). Darüber hinaus beleuchten wir die beeindruckenden Benchmarking-Ergebnisse und zusätzliche Features des Modells. Zum Ende hin sprechen wir über die offenen Herausforderungen von Prior Labs und welche "Moonshots" sie für die Zukunft planen.
**Zusammenfassung:**
TabPFN ist ein Modell für Vorhersagen auf tabellarischen Daten, entwickelt von Prior LabsEs nutzt In-Context Learning, um Aufgaben durch Sequenzen von Daten zu lernen, und wurde speziell für die Transformer-Architektur angepasstTabPFN wurde mit 100 Millionen synthetischen Datensätzen, die durch strukturelle kausale Modelle (SCMs) generiert wurden, trainiertEs stellt einen neuen Benchmark dar und liefert starke Leistungen über verschiedene Domänen hinwegDas Modell kann Unsicherheiten quantifizieren, mit fehlenden Werten umgehen und Outlier erkennenTabPFN ist auf Consumer-Hardware trainierbar, was die Entwicklung auch auf kleinen GPUs ermöglichtZukünftige Entwicklungen fokussieren sich auf Zeitreihen, Kausalität und multimodale Modelle**Links:**
Blog: TabPFN: Die KI-Revolution für tabulare Daten https://www.inwt-statistics.de/blog/tabpfn-die-ki-revolution-fuer-tabulare-datenNature Publikation zu tabPFN aus 2025: https://www.nature.com/articles/s41586-024-08328-6Artikel über tabPFN in Fortune: https://fortune.com/2025/02/05/prior-labs-9-million-euro-preseed-funding-tabular-data-ai/Nature News & views von Duncan C. McElfresh: https://www.nature.com/articles/d41586-024-03852-xZeit für Unternehmer: https://www.zeit.de/zeit-fuer-unternehmer/2025/01/kuenstliche-intelligenz-tabpfn-tabellen-daten?freebie=a67d9166Publikation zu tabICL: https://arxiv.org/abs/2502.05564früher Hintergrund-Artikel zur Transformers Architektur für Bayesianische Inferenz : https://arxiv.org/abs/2112.10510früheres Working Paper zu tabPFN: https://arxiv.org/abs/2207.01848GitHub Repo zu tabPFN: https://github.com/PriorLabs/TabPFNHomepage Prior Labs: https://priorlabs.ai/#71: Predictive LLMs: Skalierung, Reproduzierbarkeit & DeepSeek https://www.podbean.com/ew/pb-p2wjd-1897b7eFeedback, Fragen oder Themenwünsche gern an [email protected]
Data Science Deep Dive
Wir machen Data Science. Und in unserem Podcast Data Science Deep Dive reden wir darüber.
Du bist ebenfalls Data Scientist oder interessierst dich für Daten, ML und AI? Dann ist dieser Podcast für dich. Wir teilen unsere Learnings aus über 180 Projekten, du bekommst Infos und Anregungen zu spannenden Themen rund um Daten.
Wir klären auf, geben Hinweise und teilen unsere Erfahrungen, die wir in über 10 Jahren als Data Scientists im B2B Bereich gesammelt haben.
Wir decken auf, was wirklich hinter den Hypes und Trends der Data Science Branche steckt.
Wir hinterfragen, was ein Data Science Projekt erfolgreich macht und welche Faktoren es zum Scheitern verurteilen.
- Anzahl der Folgen: 81
- Letzte Folgen: 2025-09-04
- Technologie