OpenAI-CEO Sam Altman hat eine neue „oberste Priorität“ gesetzt

OpenAI CEO Sam Altman hat eine neue „oberste Prioritaet gesetzt
OpenAI CEO Sam Altman hat seine neue oberste Priorität im Visier – die Einführung des nächsten großen Sprachmodells (LLM), von dem er sagt, dass es „viel, viel mehr kann“ als die bestehenden Modelle. Er fügte hinzu, dass sich KI viel schneller entwickle als frühere Technologien und die Verbreitung der Technologie „unbequeme“ Entscheidungen erfordern werde.
In einem Interview im laufenden Weltwirtschaftsforum bei Davos, Altmann sagte, dass zukünftige KI-Produkte „ziemlich viele individuelle Anpassungen“ ermöglichen müssen und „das wird vielen Menschen unangenehm sein.“ Er wies darauf hin, dass KI Antworten auf der Grundlage der Wertepräferenzen der Benutzer und möglicherweise des Landes, in dem sie leben, geben werde.
„Wenn das Land sagen würde, wissen Sie, alle Schwulen sollten auf Anhieb getötet werden, dann nein … das ist völlig tabu. Aber es gibt wahrscheinlich andere Dinge, mit denen ich persönlich nicht einverstanden bin, aber eine andere Kultur könnte es tun.“ … Als Werkzeugbauer müssen wir uns mit einigen Einsatzmöglichkeiten unserer Werkzeuge etwas unwohl fühlen“, wurde er zitiert.
Altman darüber, wie KI unsere Arbeitsweise verändern wird
Altman sagte, dass KI unsere Arbeitsweise verändern wird und KI-Fortschritte „dazu beitragen werden, die Geschwindigkeit wissenschaftlicher Entdeckungen erheblich zu beschleunigen“. Allerdings erwarte er nicht, dass das im Jahr 2024 passieren werde, „aber wenn es passiert, ist es eine große, große Sache.“
Altman ist „nervös“ wegen des Einsatzes von KI bei Wahlen
Altman, dessen Unternehmen kürzlich Maßnahmen zur Bekämpfung von Fehlinformationen bei Wahlen angekündigt hat, sagte, er sei „nervös“ über die Auswirkungen von KI auf Wahlen auf der ganzen Welt in diesem Jahr. Altman sagte, er wolle vermeiden, „den letzten Krieg“ wegen Wahlfehlinformationen zu führen.
In einem Blogbeitrag sagte OpenAI, dass seine Plattform genaue Abstimmungsinformationen bereitstellen, maßvolle Richtlinien durchsetzen und die Transparenz verbessern werde.
„Wir haben eine funktionsübergreifende Anstrengung, die sich der Wahlarbeit widmet und das Fachwissen unserer Sicherheitssysteme, Bedrohungsinformationen, Rechts-, Technik- und Richtlinienteams zusammenführt, um potenziellen Missbrauch schnell zu untersuchen und zu bekämpfen“, sagte das Unternehmen.
„Wir arbeiten daran, relevanten Missbrauch zu antizipieren und zu verhindern – wie zum Beispiel irreführende „Deepfakes“, groß angelegte Einflussnahmen oder Chatbots, die sich als Kandidaten ausgeben“, sagte das Unternehmen.
Altman machte jedoch keine Angaben dazu, wie viele OpenAI-Mitarbeiter daran arbeiten würden, Fehlinformationen über Wahlen einzudämmen.

toi-tech