Verantwortungsvolle KI: IIT Madras eröffnet „Centre for Responsible AI“, Google schließt sich als Mitglied an Bord an

Verantwortungsvolle KI IIT Madras eroeffnet „Centre for Responsible AI Google
Indisches Institut für Technologie Madras (IIT Madras) hat ein Zentrum für gegründet Verantwortungsvolle KI (CeRAI), ein interdisziplinäres Forschungszentrum, um eine ethische und verantwortungsvolle Entwicklung KI-basierter Lösungen in der realen Welt sicherzustellen.
Es ist darauf ausgerichtet, ein führendes Forschungszentrum auf nationaler und internationaler Ebene für Grundlagen- und angewandte Forschung im Bereich verantwortungsvolle KI zu werden, mit unmittelbarer Auswirkung auf den Einsatz von KI-Systemen im indischen Ökosystem. Google ist das erste Platin-Konsortiumsmitglied und hat eine Summe von 1 Million US-Dollar für dieses Zentrum gespendet. Eines der Hauptziele von CeRAI wird darin bestehen, qualitativ hochwertige Forschungsergebnisse zu produzieren, wie unter anderem die Veröffentlichung von Forschungsartikeln in einflussreichen Fachzeitschriften/Konferenzen, White Papers und Patenten. Es wird darauf hinarbeiten, technische Ressourcen wie kuratierte Datensätze (sowohl universell als auch indienspezifisch), Software, Toolkits usw. im Hinblick auf den Bereich der verantwortungsvollen KI zu erstellen.
Das Zentrum plant außerdem, Möglichkeiten für die Durchführung spezieller Sensibilisierungs-/Schulungsprogramme für alle Beteiligten zu schaffen, um die Themen ethischer und verantwortungsvoller KI besser zu verstehen und so einen sinnvollen Beitrag zur Lösung von Problemen in den jeweiligen Bereichen zu leisten. Es wird eine Reihe technischer Veranstaltungen in Form von Workshops und Konferenzen zu speziellen Themen einsetzbarer KI-Systeme abhalten, wobei der Schwerpunkt auf Ethik- und Verantwortungsgrundsätzen liegt, die befolgt werden müssen.
Auf dem Weg zur Schaffung eines Rahmens für verantwortungsvolle KI in Indien
Das Center for Responsible AI führte am 15. Mai seinen ersten Workshop zum Thema „Responsible AI for India“ durch. In seiner Rede zur Eröffnungssitzung dieses Workshops sagte Abhishek SinghManaging Director und Chief Executive Officer der Digital India Corporation, sagte: „Ich bin sicher, dass die Beratungen, die heute in diesem Workshop und den verschiedenen Podiumsdiskussionen stattfinden werden, uns bei der Weiterentwicklung unseres Rahmenwerks, unserer Richtlinien und unserer Richtlinien wesentlich helfen werden.“ für verantwortungsvolle KI.“
Singh fügte hinzu: „KI spielt in unserem Leben eine wichtige Rolle. Ob wir es wissen oder nicht, jeden Tag nutzen wir in irgendeinem Teil unseres Lebens KI-basierte Technologien. Es ist sehr wichtig, dass diejenigen auf politischer Ebene und diejenigen, die an der Spitze der Entwicklung von Technologien stehen, sich der Risiken und Herausforderungen bewusst sind, die bestehen bleiben, während wir dieselben Technologien zur Lösung gesellschaftlicher Probleme, zur Gewährleistung des Zugangs zur Gesundheitsversorgung usw. nutzen Die Gesundheitsversorgung wird erschwinglicher, die Bildung wird integrativer gestaltet und die Landwirtschaft wird produktiver … Es besteht Bedarf an einem unvoreingenommenen und diskriminierungsfreien KI-Rahmen, da wir einzigartige Anforderungen haben, die eine Anpassung an unsere Anforderungen erfordern.“
Sanjay Gupta, Country Head und Vizepräsident von Google in Indien, kommentierte die bevorstehende CeRAI am IIT Madras wie folgt: „Da Indiens digitale Ökosysteme zunehmend KI übernehmen und nutzen, sind wir bestrebt, die Best Practices zu teilen, die wir seit 2018 entwickelt haben.“ Wir begannen, uns für verantwortungsvolle KI einzusetzen. Um zum Aufbau einer Grundlage für Fairness, Interpretierbarkeit, Datenschutz und Sicherheit beizutragen, unterstützen wir die Einrichtung eines einzigartigen multidisziplinären Zentrums für verantwortungsvolle KI mit einem Zuschuss von 1 Million US-Dollar an das Indian Institute of Technology, Madras.“
Prof. V Kamakoti, Direktor des IIT Madras, betonte die Notwendigkeit solcher Zentren und sagte: „Wir haben jetzt ein Stadium erreicht, in dem wir den KI-Tools Verantwortung zuweisen und die Gründe für die Ergebnisse der KI interpretieren müssen.“ Aspekte der menschlichen Augmentation, voreingenommene Datensätze, das Risiko des Verlusts gesammelter Daten und die Einführung neuer Richtlinien müssen neben umfangreicher Forschung angegangen werden. Es besteht ein wachsender Bedarf, Vertrauen rund um die KI aufzubauen, und es ist von entscheidender Bedeutung, den Begriff der Privatsphäre zu verwirklichen. Solange es eine Domäneninterpretation gibt, wird KI keine Arbeitsplätze wegnehmen.“

toi-tech