Von Robotern bis zu ChatGPT – künstliche Intelligenz ist dieser Tage in aller Munde. Wie weit ist die Forschung bereits? Überwiegen Vorteile oder Gefahren bei der rasanten Entwicklung der neuen Technologien? Und wohin führt uns das alles? FHWN-Experten zeigen Vor- und Nachteile auf und analysieren, wo die Reise in den nächsten Jahren gehen könnte.
Mustafa Algan ist wissenschaftlicher Mitarbeiter im österreichweit einzigartigen Bachelor-Studiengang Robotik an der FH Wiener Neustadt. Der Umgang mit künstlicher Intelligenz steht bei ihm sowohl in der Lehre, als auch bei Forschungsprojekten an der Tagesordnung.
„Wir unterscheiden grundsätzlich zwischen schwacher und starker künstlicher Intelligenz. Der wesentliche Unterschied ist, dass schwache künstliche Intelligenz auf ihr von Anfang an festgelegtes Kerngebiet beschränkt ist, während starke künstliche Intelligenz auch außerhalb der zunächst vorgegebenen Grenzen lernen kann“, erklärt Algan.
Daten, Daten und nochmals Daten
Auch wenn Tools wie Chat GPT oder die neuesten Versionen von Bildbearbeitungsprogramme bereits Erstaunliches leisten können – die Programme machen immer noch viele Fehler. Woran liegt das? „Um ein solches Programm wirklich alltagstauglich machen zu können, braucht es eine unfassbar große Menge an Daten. Nachdem sich viele Dinge täglich ändern, müsste man ein Programm wie Chat GPT wahrscheinlich rund um die Uhr updaten und mit neuen Daten füttern“, meint der Experte.
Doch es stellt sich nicht nur die Frage der Machbarkeit, auch die Motive von Entwicklern spielen eine wesentliche Rolle – ist es doch maßgeblich, mit welchen Informationen eine künstliche Intelligenz gefüttert wird. Durch die Art und Weise, wie Informationen bereitgestellt werden, kann schnell der Eindruck absoluter Wahrheiten entstehen. „Das Wording von Chat GPT ist sehr überzeugend. Wenn man als User nicht im Hinterkopf hat, dass Informationen nicht einfach ohne zu hinterfragen geglaubt und übernommen werden kann, wird das Ganze gefährlich“, so Algan.
Fluch oder Segen?
Doch wo Schatten ist, gibt es auch Licht: Dass künstliche Intelligenz in sehr vielen Bereichen des täglichen Lebens eine immense Erleichterung sein kann, ist unbestritten. Ein Beispiel dafür ist der Online-Handel – dort sind Algorithmen und künstliche Intelligenz längst im Einsatz – davon profitieren sowohl Unternehmen, als auch Kundinnen und Kunden.
Rainer Neuwirth, der am Campus Wieselburg der FHWN den Studiengang E-Commerce leitet, gibt Einblicke in die Prozesse hinter Vorgängen, die für Viele schon ganz normal sind: „Ein Beispiel wäre die Verfolgung einer Lieferung in Verbindung mit einem Chatbot. Sie wollen wissen, wo Ihre Bestellung bleibt, die künstliche Intelligenz sucht danach und gibt Ihnen Auskunft. Durch die Rückmeldung, ob die Aktion für Sie hilfreich war oder was besser sein hätte können, lernt das Programm und perfektioniert sich mit der Zeit selbst.“
Die Frage der Kontrolle
Doch in einem Punkt sind sich Expertinnen und Experten einig: Es wird in Zukunft eine Reglementierung für KI-Programme geben müssen. Von einer Kennzeichnungspflicht ist bereits jetzt die Rede. Woher sollen beispielsweise Lehrende wissen, ob eine Aufgabe von einem Studierenden oder von Chat GPT gelöst wurde?
„Dafür gibt es wiederum eigene Programme und Algorithmen, die wir einsetzen, um zu sehen, ob die Lösung selbst erarbeitet wurde oder ob eine künstliche Intelligenz nachgeholfen hat“, erzählt Algan.
Und was sagen die Studierenden selbst zu der neuen Möglichkeit? In einer Blitz-Umfrage am Campus zeigt sich ein deutliches Bild: Als Inspiration wird Chat GPT bereits gerne genutzt, jedoch sind sich die Studierenden darüber im Klaren, dass es weder sinnvoll, noch aktuell machbar ist, komplexe Aufgaben von der Software lösen zu lassen.