Zurück

Lügt ChatGPT mehr als wir?

27. Januar 2023

Immer mehr Menschen probieren ChatGPT aus. Die allermeisten sehen die Vorteile. Doch es gibt aus meiner Teckie-Sicht seltsame Aussagen und Diskussionen um ChatGPT.

Wo bleibt der Kontext?

Ich habe gerade einen Artikel gelesen. Eine Überschrift darin "ChatGPT lügt". Ja, das stimmt, ChatGPT macht Fehler. Es ist auch hinlänglich bekannt, dass die Datenbasis von ChatGPT nur bis 2021 reicht und deshalb die Frage nach der aktuellen Verteidigungsministerin von Deutschland mit Annegret Kramp-Karrenbauer beantwortet wird, obwohl auf sie doch mittlerweile zwei weitere gefolgt sind. Geschenkt. Doch lügen ist ein starker Begriff. Er umfasst nicht nur das versehentliche Lügen, das ChatGPT unterläuft, weil die Datenbasis nicht mehr hergibt, sondern auch das absichtliche Lügen. Wieso dieser starke Begriff?

Und was steckt noch in dieser Aussage, dass ChatGPT lügt? Lügt es öfter als wir Menschen? Kann es weniger Fragen richtig beantworten? Müssen wir bei ChatGPT als Quelle vorsichtiger sein als bei anderen Quellen? Mir fehlt einfach der Kontext, in dem diese Aussagen getätigt werden. Nur weil ChatGPT manchmal falsch liegt, wird so getan, als ob es eine ganz unsichere Sache ist, sich auf ChatGPT zu verlassen. Es erinnert mich an die Diskussion um Wikipedia. Dass doch der gute alte Brockhaus viel verlässlicher ist als dieses von Usern zusammengeschriebene Lexikon im Internet. Bereits in den nuller Jahren gab es Untersuchungen dazu (Quelle: Der Spiegel - "Vergleichstest: Wikipedia schlägt die Profis"). Wikipedia hatte die Nase weit vorn was Richtigkeit, Vollständigkeit, Aktualität und Verständlichkeit betraf. Brauchen wir wieder solche Vergleiche?

Wen interessieren Quellen?

In einem anderen Beitrag wird darauf hingewiesen, dass jede*r wissen sollte, ob ein Text von einer KI oder von einem Menschen geschrieben wurde. Wieso? Welchen Unterschied macht es für die Leser*innen? Mich interessiert das nicht, außer ich beschäftige mich mit dem Thema der automatischen Textgenerierung. Dann ist es zum Beispiel spannend zu erfahren, ob ein Text ausschließlich oder mit Hilfe einer KI geschrieben wurde. Ansonsten interessiert mich der Output und nicht die Entstehung.

Wenn ich mir überlege, wer seinen/ihren Doktortitel wegen Plagiatsvorwürfen abgeben musste oder "freiwillig" abgegeben hat, dann ahne ich, wieso diese Diskussion geführt wird. Wir müssen das, was wir unter intellektueller Leistung des Menschen verstehen, neu definieren. Aber bringt uns da die Frage weiter, wer welchen Text geschrieben hat?

Definitionssache

In anderen Beiträgen wird darauf verwiesen, dass es einer KI an Kreativität, Visionen und Empathie fehlt. Seid ihr sicher? 

Bei der Kreativität und bei Visionen kommt es darauf an, wie man sie versteht. Wenn sie die Fähigkeit voraussetzen, aus Mustern und Zusammenhängen neue Lösungen zu generieren, dann ist die KI heute schon kreativ bzw. visionär. Wenn sie auf Intuition beruhen, dann wird es wohl noch eine Weile dauern, bis wir dieses Konzept der KI verständlich gemacht haben. Und es könnte sein, dass es noch den ein oder anderen genialen Einfall gibt, den nur ein Mensch haben kann. Aber sind es wirklich alles auf Intuition basierende Einfälle, die uns heute als Ergebnis von Kreativität oder als Visionen verkauft werden?

Nun zum aus meiner Sicht schwierigsten Fall der Empathie. Es fällt mir schwer mir vorzustellen, dass wir einer KI beibringen können, wie es sich anfühlt, wenn man Empathie von einem anderen Menschen erfährt. Empathische Verhaltensweisen können wir ihr auf jeden Fall antrainieren. Das geht mit Hilfe von Mustern. Nach aktuellem Stand wäre das Verhalten also angemessen, aber "es würde irgendetwas fehlen". Zu behaupten, dass eine KI das niemals erlernen kann, würde ich mich trauen. Dazu bin ich zu beeindruckt von dem, was heute schon möglich ist. Und damit meine ich nicht nur ChatGPT.

Und dann ist da noch die Frage, was Kreativität, Vision und Empathie mit ChatGPT zu tun haben? Gibt es Aufgabenstellungen für das Schreiben von Texten, die Kreativität, Visionen und Empathie in der Form erfordern, in der sie eine KI nicht oder noch nicht leisten kann? Mir fehlt die Vorstellungskraft dafür.

Mehr lesen...