Der iPod-Erfinder, Nest Labs-Gründer und Investor Tony Fadell hat sich am Dienstag während eines lebhaften Interviews bei Tech Disrupt 2024 in San Francisco mit OpenAI-CEO Sam Altman auseinandergesetzt. Als er über sein Verständnis der längeren Geschichte der KI-Entwicklung vor der LLM-Begeisterung und die ernsten Probleme mit LLM-Halluzinationen sprach, sagte er: „Ich beschäftige mich seit 15 Jahren mit KI, Leute, ich spreche nicht nur Scheiße aus – ich Ich bin nicht Sam Altman, okay?“
Der Kommentar löste bei der schockierten Menge ein überraschtes „Oohs“-Raunen und nur eine kleine Handvoll Applaus aus.
Fadell hatte während seines Interviews eine Rolle gespielt und eine Reihe von Themen angesprochen, die von der Frage, welche „Arschlöcher“ großartige Produkte hervorbringen können, bis hin zu dem, was mit den heutigen LLMs nicht stimmt, reichten.
Er gab zwar zu, dass LLMs „für bestimmte Dinge großartig sind“, erklärte jedoch, dass es noch ernsthafte Bedenken gebe, die ausgeräumt werden müssten.
„LLMs versuchen, so ‚allgemein‘ zu sein, weil wir versuchen, Science-Fiction Wirklichkeit werden zu lassen“, sagte er. „[LLMs are] ein Besserwisser … ich hasse Besserwisser.“
Stattdessen schlug Fadell vor, dass er es vorziehen würde, KI-Agenten einzusetzen, die auf bestimmte Dinge geschult sind und transparenter über ihre Fehler und Halluzinationen sind. Auf diese Weise wären die Mitarbeiter in der Lage, alles über die KI zu erfahren, bevor sie sie für den konkreten Job „anheuern“.
„Ich stelle sie ein, um … mich auszubilden, ich stelle sie als Co-Piloten für mich ein, oder ich stelle sie ein, um mich zu ersetzen“, erklärte er. „Ich möchte wissen, was das für ein Ding ist“, und fügte hinzu, dass die Regierungen sich engagieren sollten, um eine solche Transparenz zu erzwingen.
Andernfalls würden Unternehmen, die KI einsetzen, ihren Ruf für „irgendeine beschissene Technologie“ aufs Spiel setzen, sagte er.
„Im Moment übernehmen wir alle dieses Ding und wissen nicht, welche Probleme es verursacht“, betonte Fadell. Er wies auch darauf hin, dass in einem aktuellen Bericht festgestellt wurde, dass Ärzte, die ChatGPT zur Erstellung von Patientenberichten nutzten, bei 90 % von ihnen Halluzinationen hatten. „Die könnten Menschen töten“, fuhr er fort. „Wir verwenden dieses Zeug und wissen nicht einmal, wie es funktioniert.“
(Fadell schien sich auf den jüngsten Bericht zu beziehen, in dem Forscher herausgefunden hatten, dass Forscher der University of Michigan, die KI-Transkriptionen untersuchten, eine übermäßige Anzahl von Halluzinationen fanden, die im medizinischen Kontext gefährlich sein könnten.)
Der Kommentar zu Altman folgte, als er der Menge mitteilte, dass er seit Jahren mit KI-Technologien arbeitet. Nest beispielsweise nutzte bereits 2011 KI in seinem Thermostat.
„Wir konnten nicht über KI reden, wir konnten nicht über maschinelles Lernen reden“, bemerkte Fadell, „weil die Leute verdammte Angst bekommen würden – ‚Ich will keine KI in meinem Haus‘ – jetzt will jeder überall KI.“ .“