Hat mein Computer es am besten gesagt?

Hat mein Computer es am besten gesagt?

Spread the love

Untersuchungen haben ergeben, dass das Vertrauen in algorithmische Ratschläge von Computern uns für Fehler blind machen kann

Mit Autokorrektur und automatisch generierten E-Mail-Antworten Algorithmen bieten viel Unterstützung, um Menschen dabei zu helfen, sich auszudrücken.

Aaron Scheiter

Neue Forschungsergebnisse der University of Georgia zeigen jedoch, dass Menschen, die sich bei sprachbezogenen, kreativen Aufgaben auf Computeralgorithmen verlassen, ihre Leistung nicht verbesserten und eher minderwertigen Ratschlägen vertrauten.

Aaron Schecter, Assistenzprofessor für Managementinformationssysteme am Terry College of Business, veröffentlichte diesen Monat seine Studie „Menschliche Präferenzen für algorithmische Beratung in einer Wortassoziationsaufgabe“ in Nature Scientific Reports. Seine Co-Autoren sind Nina Lauharatanahirun, eine Assistenzprofessorin für biobehaviorale Gesundheit an der Pennsylvania State University, und Eric Bogert, der kürzlich am Terry College promoviert hat und derzeit Assistenzprofessor an der Northeastern University ist.

Das Papier ist das zweite in der Untersuchung des Teams zum individuellen Vertrauen in Ratschläge, die von Algorithmen generiert werden. In einem Papier vom April 2021 stellte das Team fest, dass sich die Menschen beim Zählen von Aufgaben mehr auf algorithmische Ratschläge verlassen als auf Ratschläge, die angeblich von anderen Teilnehmern gegeben wurden.

Diese Studie zielte darauf ab, zu testen, ob Menschen auf den Rat eines Computers zurückgriffen, wenn sie kreativere und sprachabhängigere Aufgaben in Angriff nahmen. Das Team fand heraus, dass die Teilnehmer mit 92,3 % höherer Wahrscheinlichkeit Ratschläge nutzten, die einem Algorithmus zugeschrieben wurden, als Ratschläge anzunehmen, die Menschen zugeschrieben wurden.

„Diese Aufgabe erforderte nicht die gleiche Denkweise (wie die Zählaufgabe in der vorherigen Studie), aber tatsächlich sahen wir die gleichen Vorurteile“, sagte Schecter. „Sie würden immer noch die Antwort des Algorithmus verwenden und sich dabei gut fühlen, obwohl es ihnen nicht hilft, besser zu werden.“

Verwenden eines Algorithmus während der Wortassoziation

Um zu sehen, ob sich die Menschen bei sprachbezogenen Aufgaben mehr auf computergenerierte Ratschläge verlassen würden, gaben Schecter und seine Co-Autoren 154 Online-Teilnehmern Teile des Remote Associates Test, einem Wortassoziationstest, der seit sechs Jahrzehnten verwendet wird, um die Kreativität eines Teilnehmers zu bewerten.

„Es ist keine reine Kreativität, aber die Wortassoziation ist eine grundlegend andere Art von Aufgabe als das Erstellen einer Bestandsprojektion oder das Zählen von Objekten auf einem Foto, da es Linguistik und die Fähigkeit beinhaltet, verschiedene Ideen zu assoziieren“, sagte er. „Wir halten das für eher subjektiv, obwohl es auf die Fragen eine richtige Antwort gibt.“

Während des Tests wurden die Teilnehmer gebeten, ein Wort zu finden, das drei Beispielwörter miteinander verbindet. Wenn die Wörter beispielsweise Base, Room und Bowling wären, wäre die Antwort Ball.

Die Teilnehmer wählten ein Wort, um die Frage zu beantworten, und erhielten einen Hinweis, der einem Algorithmus oder einer Person zugeschrieben wurde, und durften ihre Antworten ändern. Die Präferenz für von Algorithmen abgeleitete Ratschläge war trotz der Schwierigkeit der Frage, der Art und Weise, wie die Ratschläge formuliert waren, oder der Qualität der Ratschläge stark.

Die Teilnehmer, die den Rat des Algorithmus befolgten, waren auch doppelt so sicher in ihren Antworten wie Personen, die den Rat der Person annahmen. Trotz ihres Vertrauens in ihre Antworten war die Wahrscheinlichkeit, dass sie die richtigen Antworten wählten, um 13 % geringer als bei denjenigen, die sich von Menschen beraten ließen.

„Ich werde nicht sagen, dass der Rat die Leute schlechter gemacht hat, aber die Tatsache, dass es ihnen nicht besser ging, sie sich aber dennoch besser fühlten, verdeutlicht das Problem“, sagte er. „Ihr Selbstvertrauen ist gestiegen, also werden sie wahrscheinlich algorithmischen Rat anwenden und sich dabei gut fühlen, aber sie werden nicht unbedingt Recht haben.

Sollten Sie beim Schreiben einer E-Mail die Autokorrektur akzeptieren?

„Wenn ich eine Autovervollständigungs- oder Autokorrekturfunktion in meiner E-Mail habe, an die ich glaube, denke ich vielleicht nicht darüber nach, ob es mich besser macht. Ich werde es einfach verwenden, weil ich mich dabei sicher fühle.“

Schechter und Kollegen bezeichnen diese Tendenz, computergenerierte Ratschläge ohne Rücksicht auf ihre Qualität zu akzeptieren, als Automatisierungsverzerrung. Zu verstehen, wie und warum menschliche Entscheidungsträger zur Lösung von Problemen auf Software für maschinelles Lernen zurückgreifen, ist ein wichtiger Teil des Verständnisses, was an modernen Arbeitsplätzen schief gehen kann und wie man Abhilfe schafft.

„Wenn wir darüber sprechen, ob wir Algorithmen Entscheidungen treffen lassen können, wird oft eine Person auf dem Laufenden gehalten, um Fehler oder schlechte Ergebnisse zu vermeiden“, sagte Schecter. „Aber das kann nicht die Lösung sein, wenn die Leute eher darauf verzichten, was der Algorithmus empfiehlt.“

Leave a Comment

Your email address will not be published.