Stellen Sie sich vor, Sie stehen auf der Warteliste für eine nicht dringende Operation. Sie wurden vor einigen Monaten in der Klinik untersucht, haben aber noch keinen Termin für den Eingriff. Es ist äußerst frustrierend, aber es scheint, dass Sie einfach warten müssen.
Allerdings hat das Operationsteam des Krankenhauses gerade erst über einen Chatbot Kontakt aufgenommen. Der Chatbot stellt einige Screening-Fragen dazu, ob sich Ihre Symptome seit Ihrem letzten Besuch verschlimmert haben und ob sie Sie daran hindern, zu schlafen, zu arbeiten oder Ihren alltäglichen Aktivitäten nachzugehen.
Ihre Symptome sind weitgehend die gleichen, aber ein Teil von Ihnen fragt sich, ob Sie mit „Ja“ antworten sollten. Letztendlich werden Sie dadurch vielleicht auf der Liste weiter oben stehen oder zumindest mit jemandem sprechen können. Und außerdem ist es nicht so, dass es sich um eine echte Person handelt.
Die obige Situation basiert auf Chatbots, die bereits im NHS eingesetzt werden, um Patienten zu identifizieren, die nicht mehr auf einer Warteliste stehen müssen oder denen Priorität eingeräumt werden muss.
Es besteht großes Interesse daran, große Sprachmodelle (wie ChatGPT) zu verwenden, um die Kommunikation im Gesundheitswesen effizient zu verwalten (z. B. Symptomberatung, Triage und Terminverwaltung). Aber gelten bei der Interaktion mit diesen virtuellen Agenten die normalen ethischen Standards? Ist es falsch – oder ist es zumindest genauso falsch –, wenn wir uns an eine Konversations-KI orientieren?
Es gibt psychologische Beweise dafür, dass Menschen viel eher unehrlich sind, wenn sie wissentlich mit einem virtuellen Agenten interagieren.
In einem Experiment wurden die Leute gebeten, eine Münze zu werfen und die Anzahl der Köpfe anzugeben. (Sie könnten eine höhere Entschädigung erhalten, wenn sie eine größere Zahl erreicht hätten.) Die Betrugsrate war dreimal höher, wenn sie sich an eine Maschine als an einen Menschen meldeten. Dies deutet darauf hin, dass manche Menschen eher dazu neigen würden, einen Chatbot auf der Warteliste anzulügen.
Ein möglicher Grund dafür, dass Menschen Menschen gegenüber ehrlicher sind, liegt in ihrer Sensibilität dafür, wie sie von anderen wahrgenommen werden. Der Chatbot wird nicht auf Sie herabschauen, Sie verurteilen oder hart über Sie sprechen.
Aber wir könnten eine tiefergehende Frage stellen, warum Lügen falsch ist und ob ein virtueller Gesprächspartner daran etwas ändert.
Die Ethik des Lügens
Es gibt verschiedene Möglichkeiten, über die Ethik des Lügens nachzudenken.
Lügen kann schlecht sein, weil es anderen Menschen Schaden zufügt. Lügen können für eine andere Person zutiefst verletzend sein. Sie können dazu führen, dass jemand aufgrund falscher Informationen handelt oder fälschlicherweise beruhigt wird.
Manchmal können Lügen schädlich sein, weil sie das Vertrauen anderer in Menschen im Allgemeinen untergraben. Diese Gründe treffen jedoch oft nicht auf den Chatbot zu.
Lügen können einer anderen Person Unrecht tun, auch wenn sie keinen Schaden anrichten. Wenn wir eine andere Person absichtlich täuschen, missachten wir möglicherweise ihre rationale Entscheidungsfreiheit oder nutzen sie als Mittel zum Zweck. Es ist jedoch nicht klar, ob wir einen Chatbot täuschen oder ihm Unrecht tun können, da er weder über einen Verstand noch über die Fähigkeit zur Vernunft verfügt.
Lügen kann schädlich für uns sein, weil es unsere Glaubwürdigkeit untergräbt. Die Kommunikation mit anderen Menschen ist wichtig. Aber wenn wir wissentlich falsche Äußerungen machen, verringern wir in den Augen anderer Menschen den Wert unserer Aussage.
Für die Person, die wiederholt Unwahrheiten äußert, wird dann alles, was sie sagt, in Frage gestellt. Dies ist einer der Gründe, warum uns Lügen und unser soziales Image am Herzen liegen. Aber solange unsere Interaktionen mit dem Chatbot nicht aufgezeichnet und kommuniziert werden (zum Beispiel an Menschen), werden unsere Chatbot-Lügen diesen Effekt nicht haben.
Lügen ist auch schlecht für uns, weil es dazu führen kann, dass andere uns gegenüber unwahr sind. (Warum sollten Menschen ehrlich zu uns sein, wenn wir nicht ehrlich zu ihnen sind?)
Aber auch das ist wahrscheinlich keine Folge der Lüge eines Chatbots. Im Gegenteil könnte diese Art von Effekt teilweise ein Anreiz sein, einen Chatbot anzulügen, da sich die Leute möglicherweise der berichteten Tendenz von ChatGPT und ähnlichen Agenten zur Konfabulation bewusst sind.
Gerechtigkeit
Natürlich kann Lügen aus Gründen der Fairness falsch sein. Dies ist möglicherweise der wichtigste Grund dafür, dass es falsch ist, einen Chatbot anzulügen. Wenn Sie aufgrund einer Lüge auf der Warteliste nach oben verschoben würden, würde dadurch jemand anderes zu Unrecht verdrängt.
Lügen können zu einer Form des Betrugs werden, wenn Sie einen ungerechtfertigten oder rechtswidrigen Gewinn erzielen oder jemand anderem einen Rechtsanspruch entziehen. Dies möchten Versicherungen insbesondere dann betonen, wenn sie Chatbots in neuen Versicherungsanwendungen einsetzen.
Jedes Mal, wenn Sie einen realen Nutzen aus einer Lüge in einer Chatbot-Interaktion ziehen, ist Ihr Anspruch auf diesen Vorteil potenziell verdächtig. Die Anonymität von Online-Interaktionen könnte zu dem Gefühl führen, dass niemand etwas davon erfahren wird.
Aber viele Chatbot-Interaktionen, etwa Versicherungsanträge, werden aufgezeichnet. Es kann genauso wahrscheinlich oder sogar wahrscheinlicher sein, dass Betrug entdeckt wird.
Tugend
Ich habe mich auf die schlimmen Folgen des Lügens und die ethischen Regeln oder Gesetze konzentriert, die möglicherweise gebrochen werden, wenn wir lügen. Aber es gibt noch einen weiteren ethischen Grund dafür, dass Lügen falsch ist. Dies hängt mit unserem Charakter und der Art von Person zusammen, die wir sind. Dies wird oft in der ethischen Bedeutung der Tugend zum Ausdruck gebracht.
Sofern keine außergewöhnlichen Umstände vorliegen, denken wir möglicherweise, dass wir in unserer Kommunikation ehrlich sein sollten, auch wenn wir wissen, dass dies niemandem schadet oder gegen Regeln verstößt. Ein ehrlicher Charakter wäre aus den bereits genannten Gründen gut, aber er ist potenziell auch an sich gut. Eine Tugend der Ehrlichkeit ist auch selbstverstärkend: Wenn wir diese Tugend kultivieren, hilft sie, die Versuchung zum Lügen zu verringern.
Dies führt zu einer offenen Frage darüber, wie diese neuen Arten von Interaktionen unseren Charakter allgemein verändern werden.
Die Tugenden, die bei der Interaktion mit Chatbots oder virtuellen Agenten gelten, können andere sein als bei der Interaktion mit echten Menschen. Es ist möglicherweise nicht immer falsch, einen Chatbot anzulügen. Dies kann wiederum dazu führen, dass wir unterschiedliche Standards für die virtuelle Kommunikation übernehmen. Wenn dies jedoch der Fall ist, besteht die Sorge, ob dies unsere Tendenz zur Ehrlichkeit im Rest unseres Lebens beeinträchtigen könnte.
Bereitgestellt von The Conversation
Dieser Artikel wurde von The Conversation unter einer Creative Commons-Lizenz erneut veröffentlicht. Lesen Sie den Originalartikel.
Zitat: Sie könnten einen Gesundheits-Chatbot anlügen – aber es könnte Ihre Selbstwahrnehmung verändern (2024, 11. Februar), abgerufen am 11. Februar 2024 von https://medicalxpress.com/news/2024-02-health-chatbot.html
Dieses Dokument unterliegt dem Urheberrecht. Abgesehen von einem fairen Handel zum Zweck des privaten Studiums oder der Forschung darf kein Teil ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient ausschließlich Informationszwecken.