Sind A/B-Tests ethisch einwandfrei?
A/B-Tests mögen harmlos erscheinen, aber viele Verbraucher mögen es nicht, wie leicht Unternehmen sie ohne ihr Wissen testen können. Sollten Marketingspezialisten ändern, wie sie testen?
Welche ethischen Fragen könnte ein einfacher A/B-Test aufwerfen? Was könnte daran falsch sein, zu testen, wie Menschen auf zwei verschiedene Kampagnen oder Webseitenfarben reagieren?
Sind A/B-Tests ethisch einwandfrei?
Michelle Meyer würde Ihnen sagen: nicht viel. Sie ist Assistenzprofessorin und stellvertretende Direktorin für Forschungsethik am Geisinger’s Center for Translational Bioethics & Health Care Policy und sagt, dass sie die Grenzen von A/B-Tests nicht so anders sieht als die Grenzen der Geschäftsethik. „Verkaufen? Ja. Upselling? Hmm. Werbung? Ja. Falsche Werbung? Nein“, sagt sie.
Aber mit zunehmender Datenmenge im Internet wird die Grenze zwischen Forschung und Wirtschaft immer enger. Unternehmen können jetzt große Gruppen von Konsumenten testen, und Social Media Plattformen können noch mehr Benutzer testen. Große Unternehmen, darunter Google, Amazon und Netflix, führen täglich viele A/B-Tests durch, die von den zu testenden Anwendern unbekannt und unsichtbar sind. Dieses ist zu einigen beunruhigend; viele Verbraucher haben laut – manchmal wütend – herausgesagt, als sie feststellten, dass sie Teil der A/B-Tests waren, die von Unternehmen durchgeführt wurden, die große Datenbestände nutzen. Im März 2014 testete Facebook rund 700.000 seiner Nutzer, ohne es ihnen mitzuteilen. Die soziale Plattform gab einigen Nutzern einen positiven Newsfeed und anderen einen negativen Newsfeed und veröffentlichte die Ergebnisse ihrer Studie in Zusammenarbeit mit Forschern der Cornell University in der Zeitschrift Proceedings of the National Academy of Sciences. Das resultierende Papier mit dem Titel „Experimentelle Beweise für eine massive emotionale Ansteckung durch soziale Netzwerke“ ergab, dass Nutzer mit negativen Newsfeeds mehr negative Wörter und solche mit positiven Newsfeeds mehr positive Wörter veröffentlichten. Viele Nutzer kritisierten die Nutzung von „Humanexperimenten“ durch Facebook. Der Chor der Beschwerden wurde so laut, dass sich Adam D.I. Kramer, einer der Facebook-Forscher, der an der Studie arbeitete, entschuldigte.
„Der Grund, warum wir diese Forschung durchgeführt haben, ist, dass wir uns um die emotionale Wirkung von Facebook und den Menschen, die unser Produkt nutzen, kümmern“, schrieb Kramer in einem Facebook-Blogbeitrag. „Ich kann verstehen, warum einige Leute Bedenken haben, und meine Co-Autoren und ich bedauern sehr, wie das Papier die Forschung und die damit verbundene Angst beschrieben hat.“
Meyer fand das Geschwafel abstoßend – nicht für das, was die Forscher von Facebook und Cornell untersuchten, sondern für das, was sie für eine irregeführte, überhitzte Reaktion vieler wütender Medienmitglieder und Facebook-Nutzer hielt. Die Stichprobengröße der Studie war riesig, aber die Ergebnisse waren Minimalzuschauer, die beispielsweise negative Newsfeeds sahen, die nur vier weitere negative Wörter pro 10.000 geschriebene Wörter veröffentlichten. Was von vielen als riesige Welle der Emotionen berichtet wurde, war eher ein kleiner Blickfang. „Die Leute lagen im Internet falsch und es war ärgerlich“, sagt Meyer. Sie schrieb einen Blogbeitrag darüber, warum die Tests von Facebook vom Institutional Review Board, einem Verwaltungsorgan, das die Forschung an menschlichen Probanden regelt, hätte genehmigt werden können, wenn Facebook etwas besser informiert gewesen wäre, potenzielle Probanden über aktive Tests zu informieren und sie auf mögliche Nebenwirkungen hinzuweisen. Ihr Beitrag wurde schnell von Wired aufgegriffen und tausende Male geteilt. „Wir können sicherlich ein Gespräch über die Angemessenheit von Facebook-ähnlichen Manipulationen, Data Mining und anderen Praktiken des 21. Jahrhunderts führen“, schrieb Meyer in der Post. „Aber solange wir privaten Unternehmen erlauben, sich frei an diesen Praktiken zu beteiligen, sollten wir Akademiker nicht übermäßig einschränken, die versuchen, ihre Auswirkungen zu bestimmen.“
Ein Jahr später schrieb Meyer eine Kolumne für die New York Times mit Christopher Chabris, einem außerordentlichen Professor für Psychologie am Union College, die von den Herausgebern provokant mit dem Titel „Please, Corporations, Experiment on Us“ überschrieben wurde. Meyer und Chabris schrieben, dass die Empörung über die Tests von Facebook eine „moralische Illusion“ sei, eine falsche Wahl zwischen der Veröffentlichung eines Produkts oder einer Atmosphäre und dem Experimentieren mit verschiedenen Produkten oder Atmosphären.
„Unternehmen und andere mächtige Akteure, darunter Gesetzgeber, Pädagogen und Ärzte, experimentieren“ ohne unsere Zustimmung mit uns, wenn sie eine neue Politik, Praxis oder ein neues Produkt umsetzen, ohne dessen Folgen zu kennen“, schrieben sie. „Wir sagen nicht, dass jede Innovation einen A/B-Test erfordert. Wir befürworten auch keine unvernünftigen Experimente mit hohem Risiko. Aber solange wir den Machthabern erlauben, einseitige Entscheidungen zu treffen, die uns betreffen, sollten wir risikoarme Bemühungen nicht vereiteln…. um die Auswirkungen dieser Entscheidungen rigoros zu bestimmen. Stattdessen sollten wir die A/B-Illusion ablegen und ihnen applaudieren.“
Aber andere sind anderer Meinung und sehen A/B-Tests als ethisches Risiko, egal ob Forscher Tests in einem Labor durchführen oder Unternehmen Tests auf gemeinsamen Arbeitsplätzen durchführen. Ehud Reiter, Professor für Informatik an der Universität Aberdeen und Chefwissenschaftler von Arria NLG, unterrichtet seine Studenten die Facebook-Studie als etwas, das es zu vermeiden gilt. Es war unethisch, sagt er.