ChatGPT-Hersteller entwickelt heimlich eine neue Art von KI – Reuters — World

ChatGPT Hersteller entwickelt heimlich eine neue Art von KI – Reuters

OpenAI möchte die Denkfähigkeit seiner Modelle deutlich steigern, teilte die Agentur mit.

OpenAI, der Entwickler des virtuellen Assistenten ChatGPT, arbeitet an einem neuartigen Ansatz für seine künstliche Intelligenztechnologie, wie Reuters berichtete. Im Rahmen des Projekts mit dem Codenamen „Strawberry“ versucht das von Microsoft unterstützte Unternehmen, die Denkfähigkeiten seiner Modelle drastisch zu verbessern, so die Agentur in einem Artikel am Freitag. Die Funktionsweise von Strawberry ist sogar innerhalb von OpenAI selbst „ein streng gehütetes Geheimnis“, sagte eine mit der Angelegenheit vertraute Person gegenüber Reuters. Die Quelle sagte, das Projekt beinhalte eine „spezialisierte Art“ der Verarbeitung eines KI-Modells, nachdem es anhand umfangreicher Datensätze vorab trainiert wurde. Ziel sei es, künstliche Intelligenz in die Lage zu versetzen, nicht nur Antworten auf Anfragen zu generieren, sondern auch so weit vorauszuplanen, dass sie sogenannte „tiefgehende Recherchen“ durchführen kann, indem sie autonom und zuverlässig im Internet navigiert, erklärte die Quelle. Reuters sagte, es habe ein internes OpenAI-Dokument geprüft, in dem ein Plan beschrieben sei, wie das US-Unternehmen Strawberry für Forschungszwecke einsetzen könnte. Die Agentur sagte jedoch, sie könne nicht feststellen, wann die Technologie der Öffentlichkeit zur Verfügung stehen werde. Die Quelle beschrieb das Projekt als „in Arbeit“. Als ein Sprecher von OpenAI zu diesem Thema angesprochen wurde, sagte er gegenüber Reuters: „Wir möchten, dass unsere KI-Modelle die Welt mehr so ​​sehen und verstehen, wie wir [humans] tun. Kontinuierliche Forschung an neuen KI-Fähigkeiten ist in der Branche eine gängige Praxis, wobei man davon ausgeht, dass diese Systeme mit der Zeit ihr Denkvermögen verbessern werden.“ Der Sprecher wandte sich in seiner Antwort nicht direkt an Strawberry.Aktuelle KI-Modelle für große Sprachen sind in der Lage, riesige Textmengen zusammenzufassen und schneller als Menschen zusammenhängende Prosa zu verfassen, haben aber normalerweise Probleme mit vernünftigen Lösungen, die für Menschen intuitiv sind. Wenn dies geschieht, „halluzinieren“ die Modelle oft, indem sie versuchen, falsche oder irreführende Informationen als Fakten darzustellen.Forscher, die mit Reuters sprachen, sagten, dass das Denken, das KI-Modellen bisher entgangen ist, der Schlüssel dazu ist, dass künstliche Intelligenz das menschliche oder übermenschliche Niveau erreicht.Letzte Woche warnte Yoshua Bengio, einer der weltweit führenden Experten für künstliche Intelligenz und Pionier des Deep Learning, erneut vor den „vielen Risiken“, einschließlich der möglichen „Ausrottung der Menschheit“, die von privaten Unternehmen ausgehen, die darum wetteifern, KI auf menschlichem Niveau und darüber hinaus zu erreichen.“Entitäten, die intelligenter als Menschen sind und ihre eigenen Ziele haben: Sind wir sicher, dass sie zu unserem Wohl handeln werden?“ sagte der Professor der Universität Montreal und wissenschaftlicher Direktor des Montreal Institute for Learning Algorithms (MILA) in einem Artikel auf seiner Website.

LESEN SIE MEHR: Musk lässt Verfahren gegen OpenAI fallen – Berichte

Bengio forderte die wissenschaftliche Gemeinschaft und die Gesellschaft als Ganzes auf, „große gemeinsame Anstrengungen“ zu unternehmen, um Wege zu finden, die fortgeschrittene KI in Schach zu halten.

:

rrt-allgemeines