Tony Fadell, der Vater des iPod und Gründer von Nest, betrat am Dienstag die Bühne bei Tech Disrupt 2024, um darüber zu sprechen, dass der Aufbau der nächsten Generation von Deep-Tech-Startups missionsgesteuerte Idioten erfordert. Der Unternehmer und Investor hielt sich auf der Bühne nicht zurück, als er das Silicon Valley wegen seines Anspruchs anprangerte und sich darauf einließ, dass LLMs „Besserwisser“ seien, was im vollbesetzten Auditorium eine Welle von Gelächter und Applaus hervorrief.
Fadell erklärte, warum er glaubt, dass „missionsgesteuerte Arschlöcher eine gute Sache sind und tatsächlich notwendig sind, um erstklassige Technologieprodukte zu entwickeln und zu liefern.“
„Menschen arbeiten mit Menschen zusammen, die sehr schwierig sind, und das sind diejenigen, die die Welt erschaffen und verändern. Aber es gibt zwei Arten von Arschlöchern. Jeder ist ein Arschloch, aber man muss verstehen, warum“, sagte Fadell. „Wenn sie ein Arschloch sind, weil es ihr Ego ist und sie versuchen, die Leute niederzudrücken, dann ist das ein egozentrisches Arschloch.“ Aber wenn Sie ein Arschloch sind, was die Details angeht, Sie sitzen da und drängen auf die Details, Sie kritisieren nicht die Leute, sondern Sie kritisieren ihre Arbeit und sagen, dass Sie es besser machen können, das ist eine Mission- ins Arschloch getrieben.“
Fadell meint, es sei keine schlechte Sache, wenn jemand auf die Details achtet und dafür sorgt, dass sein Team alles richtig macht. Er glaubt, dass man sich auf Details konzentrieren muss, um großartige Produkte herzustellen, und wenn man einen Manager hat, der sich um das Ganze kümmert, ist das eine gute Sache.
Der Unternehmer und Investor kritisierte auch das Silicon Valley wegen seines Anspruchs und machte einen Witz darüber, dass Start-ups keine Google-Mitarbeiter einstellen, weil „man Glück haben kann, dass sie überhaupt aufgetaucht sind“.
„Sie sind einfach mit einem Bus aufgetaucht, haben dort zu Mittag gegessen und sind dann mit dem Bus nach Hause gefahren“, sagte Fadell. „Sie sagen: ‚Ich habe heute gearbeitet, ich bekomme eine Massage, oh, wo ist der Joghurt?‘ Deshalb gefällt es mir nicht, dass eines unserer Start-ups die meisten Google-Mitarbeiter einstellt, weil sie diese Kultur haben.“
Er bemerkte, dass das Team während seiner Zeit bei General Magic in den 90er Jahren aufgrund ihrer Anforderungen beschlossen hatte, keine Leute von der Ostküste einzustellen.
„Wir haben gesagt, wir werden niemals Leute von der Ostküste einstellen“, sagte Fadell. „Das waren also IBM und Sperry und all dieser Scheiß, weil sie ihren Fahrer oder ihren Firmenwagen brauchten und sie ihr Firmenessen und ihre spezielle Cheftoilette brauchten. Wir sind so, als würden wir niemals einen dieser Leute einstellen, es wird einfach nicht funktionieren, es ist ein Kulturkonflikt. Und jetzt wache ich heute auf und das Silicon Valley hat sich in eine solche Scheiße verwandelt, und ich frage mich: Bringt mich verdammt noch mal hier raus, ja? Anspruch überall!“
Anschließend bezeichnete Fadell LLMs als Besserwisser und scherzte, dass niemand einen Besserwisser einstellen wolle. Er glaubt, dass LLMs für bestimmte Dinge großartig sind, dass sie aber nicht allgemein übernommen werden können.
Er glaubt, dass LLMs großartig zur Unterhaltung sein können, etwa wenn Sie ChatGPT bitten, Ihnen ein lustiges Gedicht zu schreiben. Da LLMs jedoch zu Halluzinationen neigen, sagt Fadell, sollten sie nicht in Fällen eingesetzt werden, in denen Menschen gefährdet sein könnten. Er ist beispielsweise der Meinung, dass Ärzte ChatGPT nicht zur Erstellung von Patientenberichten verwenden sollten, da Menschen geschädigt werden könnten, wenn Behandlungspläne falsch eingegeben oder Medikamente falsch benannt werden.
„Wenn man sich künstliche Modelle anschaut, funktionieren sie wirklich gut“, sagte Fadell. „Sie halluzinieren nicht, aber LLMs versuchen, so allgemein zu sein, weil wir versuchen, Science-Fiction möglich zu machen.“