Das Team führt Schüler durch die trüben Gewässer der ChatGPT-Codierung

Die Kolosseen von Elden Ring oeffnen morgen endlich im kostenlosen

Forscher der West Virginia University bereiten Abiturienten und College-Studenten darauf vor, die Leistungsfähigkeit von ChatGPT, dem beliebten Chatbot für künstliche Intelligenz, durch Codierung zu nutzen und gleichzeitig die potenziellen Mängel der Plattform zu beheben.

In einem in Quantitative Biology veröffentlichten Artikel untersuchte ein Team unter der Leitung von Gangqing „Michael“ Hu, Assistenzprofessor an der WVU School of Medicine, Abteilung für Mikrobiologie, Immunologie und Zellbiologie, wie sie Studenten helfen könnten, die Angst vor dem Lernen von Code zu überwinden und ihre die Fähigkeit kritisch zu Denken.

„Das ist, als ob Kinder durch die schlammige Küste waten und schöne Muscheln suchen“, sagte Hu. „Die Kinder sind die ersten Schüler und die schlammige Küste ist ChatGPT. Die wunderschönen Muscheln stellen all die attraktiven Möglichkeiten dar, denen Anfänger nicht widerstehen können. Aber die ChatGPT-Küste ist schlammig mit Herausforderungen wie der Ungewissheit durch die Antwort des Chatbots – einschließlich irreführender Artefakte – und Studenten ‚ zu starkes Vertrauen in die KI beim Codieren.“

ChatGPT erzeugt menschenähnliche Antworten auf textbasierte Konversationen und wird von mehreren Unternehmen verwendet, um auf Kundenanfragen zu antworten und allgemeine Informationen bereitzustellen. Jeder kann damit Informationen zu einer Vielzahl von Themen suchen.

Eine der Antworten von ChatGPT kann Code sein, und in diesem Fall wird die Plattform durch Eingabeaufforderung zu einem Codierungstool.

„Dies ist ein neues Werkzeug zum Erlernen des Codierens und es gibt einige Missverständnisse“, sagte Hu. „Schüler denken vielleicht, dass Codierung aufgrund von Aufforderungen nicht wichtig ist, oder sie haben Angst, es zu lernen. Wir müssen sie über den Zweck dieses Chatbot-unterstützten Lernens aufklären. Da ein Teil des Codes des Chatbots falsch sein kann, Die Schüler müssen kritisch denken, um beurteilen zu können, ob die Antwort richtig ist, und wenn nicht, wie sie eine Lösung finden können.“

Einer der größten Nachteile von ChatGPT ist, dass generierte Antworten auf Fragen entweder richtig, falsch oder unvollständig sein können. Tatsächlich ist ein Mensch erforderlich, um sorgfältig ausgearbeitete Eingabeaufforderungen bereitzustellen, um das Tool vollständig zu nutzen und gültige und robuste Ergebnisse zu liefern.

Inspiriert von adaptivem Lernen in der Bildungsliteratur verwendete das Team das OPTIMAL-Modell, um die Chatbot-gestützte wissenschaftliche Datenanalyse zu erleichtern. OPTIMAL steht für Optimization of Prompts Through Iterative Mentoring and Assessment und umfasst eine Reihe von Schritten zur Verbesserung der Kommunikation mit einem Chatbot. In diesem Fall war es auf die Bioinformatik ausgerichtet, die Wissenschaft des Sammelns und Analysierens großer Mengen biologischer, medizinischer und gesundheitlicher Informationen. Forscher sagen, dass das Modell auch für andere Zwecke wie Finanzen und Wirtschaft verwendet werden kann.

„Das OPTIMAL-Modell ist wie Gummistiefel, die die Kinder an der schlammigen Küste tragen können“, sagte Hu. „Die Stiefel schützen die Kinder davor, schmutzig zu werden, ähnlich wie das Modell ein Schutzmechanismus ist, um zu verhindern, dass die Schüler durch ungenaue Informationen des Chatbots in die Irre geführt werden. Das Modell zielt darauf ab, sowohl die Programmierfähigkeiten als auch die Eingabeaufforderungsfähigkeiten durch eine iterative Kommunikation mit einem geführten Chatbot zu verbessern durch kritisches Denken und Bewerten.“

Nach dem OPTIMAL-Modell überprüfen die Schüler alle für die Eingabe erforderlichen Informationen und erhalten Anleitungen zum Erstellen eines Satzes von Eingabeaufforderungen. Sobald sie die Eingabeaufforderung eingegeben haben, produziert der Chatbot Code und die Schüler sind bereit, ihn zu testen.

Wenn nach dem Ausführen des Codes Fehlermeldungen angezeigt werden, müssen die Schüler den Fehler auswerten und die beste Vorgehensweise bestimmen, z. B. den Chatbot anweisen, den Code zu überarbeiten, oder den Code manuell debuggen.

Der Prozess wird fortgesetzt, bis der Code keine Fehler mehr ausgibt und ein Ergebnis zur kritischen Bewertung ausgibt. Am Ende der Sitzung reflektieren die Schüler den gesamten Kommunikationsprozess und überprüfen den Code, um fehlende Details zu identifizieren und die Eingabeaufforderungen abzuschließen.

Das Forschungsteam stellte fest, dass die bloße Verwendung des Chatbots als Werkzeug zur Codegenerierung das kreative Denken einschränken kann und dass die Überprüfung des Codes am Ende jeder Sitzung genauso wichtig ist wie die Optimierung der Eingabeaufforderungen.

Die Arbeit brachte Forscher aus verschiedenen Disziplinen zusammen: Evelyn Shue, studentische Freiwillige in der Abteilung für Mikrobiologie, Immunologie und Zellbiologie; Bingxin Li, WVU John Chambers Hochschule für Wirtschaft und Wirtschaft; Xin Li, WVU Benjamin M. Statler College für Ingenieurwesen und Bodenschätze; Zifeng Feng, Universität von Texas in El Paso; und Li Liu, Arizona State University.

Das Team plant, die Wirksamkeit des OPTIMAL-Modells bei der Verbesserung der traditionellen Bioinformatik-Ausbildung für Anfänger im Klassenzimmer zu evaluieren.

„Diese Bewertung sollte Verbesserungen der Programmierfähigkeiten, Aufforderungsfähigkeiten, Problemlösungsfähigkeiten und des kritischen Denkens während der Interaktionen mit einem Chatbot umfassen“, sagte Hu.

Zukünftige Forschung wird sich mit tieferen Erkenntnissen und Strategien zur Anwendung von ChatGPT in der Präzisionsausbildung befassen.

„Es gibt sicherlich andere Arten von Gummistiefeln“, sagte Hu.

Die Ergebnisse werden in der Zeitschrift veröffentlicht Quantitative Biologie.

Mehr Informationen:
Evelyn Shue et al, Anfänger in der Bioinformatik mit ChatGPT stärken, Quantitative Biologie (2023). DOI: 10.15302/J-QB-023-0327

Bereitgestellt von der West Virginia University

ph-tech