Ich habe vor kurzem einen Artikel geschrieben über Mittel über die Auswirkungen von KI auf Agenturen und Forscher. Als Agentur haben wir eine Arbeitsgruppe, die sich mit KI beschäftigt und damit, wie sie in unserer Arbeit eingesetzt werden kann - oder auch nicht. Ich vermute, wir haben noch einen langen Weg vor uns, aber ich dachte, es lohnt sich, ein paar Dinge mitzuteilen, die sich langsam abzeichnen.
Einige davon haben sich aus unserer Zusammenarbeit als Arbeitsgruppe ergeben. Andere ergeben sich aus der praktischen Evaluierung, die wir derzeit durchführen. Da wir noch lernen, behalte ich mir das Recht vor, meine Meinung zu ändern, sobald wir mehr Informationen gesammelt haben.
Datenschutz, IP-Eigentum und ChatGPT
Wir haben uns entschieden, unsere eigene Forschung zu betreiben, um einen Datensatz zu erstellen, der uns gehört, damit wir die vollständige Kontrolle über alle Risiken haben, die mit dem Hochladen der Daten oder Teilen davon auf ChatGPT verbunden sind. Es sollte selbstverständlich sein, dass alle Daten, die auf ChatGPT hochgeladen werden, anonymisiert werden sollten. Aber es gibt auch die Frage des Eigentums an den Daten und es ist wichtig zu verstehen, was mit den Daten geschieht, die Sie hochladen.
Ich fragte ChatGPT darüber und was mit meinen Daten geschehen würde, und die Antwort war zunächst beruhigend. Ich stellte die folgende Frage:
Wenn ich die Daten meines Forschungsinterviews hochlade auf ChatGPT wird es Teil der Trainingsdaten?
ChatPGT hat die folgende Antwort gegeben:
Nein, wenn Sie Ihre Forschungsinterviewdaten zu ChatGPT hochladen, werden diese nicht Teil der Trainingsdaten. Als KI-Sprachmodell ist ChatGPT nicht in der Lage, spezifische Dateneingaben von einzelnen Nutzern zu integrieren oder zu speichern. Der Trainingsprozess für Modelle wie ChatGPT wird separat durchgeführt und umfasst große Datensätze, die von den Entwicklern des Modells gesammelt werden.
Als ich jedoch weiter nachfragte und darauf hinwies, dass meine Interaktion das Hochladen von Daten und das Stellen von Fragen beinhaltete, änderte sich die Antwort in:
Sie haben Recht. Wenn Sie Daten hochladen und Fragen dazu stellen, können diese Interaktionen protokolliert und möglicherweise von OpenAI zur Verbesserung des Modells verwendet werden. Dazu gehören die Daten, die Sie hochladen, die Fragen, die Sie stellen, und die Antworten des Modells.
Ich bin mir nicht sicher, ob das etwas Schlechtes ist. Je mehr Daten das Modell enthält, desto genauer wird es. Aber es ist wichtig zu verstehen, was hier passiert. Die meisten Kundenverträge enthalten Klauseln zum geistigen Eigentum, und in den Verträgen, die ich gesehen habe, wird das Eigentum an den Daten immer auf den Kunden übertragen. Das bedeutet, dass sie nicht ohne Erlaubnis hochgeladen werden dürfen.
Voreingenommenheit im ChatGPT
Mit der Zeit werden wir alle zu "Prompt-Ingenieuren" werden und unsere Fähigkeit verbessern, ChatGPT und anderen KIs bessere Fragen zu stellen. Wir müssen uns jedoch darüber im Klaren sein, dass KI-Modelle wie ChatGPT zwar wertvolle Werkzeuge sein können, aber auch Einschränkungen und potenzielle Verzerrungen aufweisen, die es zu berücksichtigen gilt. Es gibt Verzerrungen in den Trainingsdaten, es gibt Verallgemeinerungen aufgrund von fehlendem Kontext, und es gibt Probleme mit der Qualität und Genauigkeit.
ChatGPT wird auf einer großen Sammlung von Textdaten aus dem Internet trainiert, was zu Verzerrungen in diesen Daten führen kann. Wenn die Trainingsdaten verzerrte oder nicht repräsentative Perspektiven enthalten, können sich diese Verzerrungen in den Antworten und Analysen des Modells widerspiegeln. Wenn Sie ChatGPT fragen, wird es sagen, dass ?OpenAI hat Anstrengungen unternommen, um Verzerrungen während des Trainings abzuschwächen? aber ein gewisser Grad an Voreingenommenheit kann immer noch vorhanden sein.
ChatGPT funktioniert wie ein Sprachmodell. Es generiert Antworten auf der Grundlage von Mustern und Beispielen aus seinen Trainingsdaten. Das bedeutet, dass es möglicherweise den spezifischen Kontext oder die Nuancen der Forschungsinterviews nicht vollständig versteht, wenn diese Aspekte nicht explizit zur Verfügung gestellt werden ? eine prompte technische Herausforderung. Als ich diesen Bereich mit ChatGPT untersuchte, sagte es mir: ?Es ist wichtig zu bedenken, dass die Antworten von ChatGPT die Komplexität und Tiefe der menschlichen Erfahrungen nicht immer genau erfassen.?. Das ist sicherlich der Kern der Forschung und für mich die größte Herausforderung bei der Nutzung von KI für Analysezwecke.
Und wie ich bereits erwähnt habe, kann es auch Qualitäts- und Genauigkeitsprobleme geben. ChatGPT ist zwar ein leistungsstarkes Sprachmodell, aber es ist nicht unfehlbar. Die generierten Antworten können manchmal falsch, unsinnig oder inkonsistent sein. Wir können ChatGPT also zur Unterstützung unserer Analyse verwenden, aber es ist wichtig, die generierte Analyse zu validieren und mit anderen Quellen abzugleichen, um Genauigkeit und Zuverlässigkeit zu gewährleisten. Dies ist die Aufgabe des Forschers.
Auch wenn ChatGPT ein wertvolles Instrument für die Forschung und Analyse sein könnte, sollte es zumindest im Moment mit Vorsicht und in Verbindung mit dem Fachwissen eines erfahrenen Forschers verwendet werden. Bislang kann es als Ausgangspunkt für die Erkundung und Hypothesenbildung dienen, aber menschliches Urteilsvermögen, kritisches Denken und Validierung bleiben für eine zuverlässige Forschungsanalyse entscheidend.
Wenn Sie mehr darüber erfahren möchten, wie wir KI erforschen und welche Ergebnisse wir dabei erzielen, wenden Sie sich bitte per E-Mail an uns hello@ux247.com.