Dark Pattern

Ein Dark Pattern ist ein Benutzerschnittstellen-Design, das darauf ausgelegt ist, den Benutzer zu Handlungen zu verleiten, die dessen Interessen entgegenlaufen.[1] Dark Patterns gehören zu den Antimustern, werden jedoch oft bewusst eingesetzt.

Hinter Dark Patterns steht die Erkenntnis, dass der Kauf eines Produktes nicht nur von rationalen Faktoren abhängig ist, sondern vor allem auch durch die emotionale oder konditionierte Reaktion des Benutzers. Zudem lassen sich Dark Patterns auch aus Sicht der Verhaltensökonomie beschreiben: Danach handelt es sich um "Designs, die Verhaltensanomalien ausnutzen und den Nutzer so zu einem für ihn nachteiligen Verhalten steuern."[2] Dark Patterns stehen hierbei oft in einer rechtlichen Grauzone und sind zum Teil – abhängig von der jeweiligen Gesetzgebung – im Interesse des Konsumentenschutzes gesetzlich verboten.

Der Begriff „Dark Pattern“ wurde vom Usability-Experten und Webdesigner Harry Brignull geprägt.[3] Im November 2019 beschrieb das Büro für Technikfolgenabschätzung beim Deutschen Bundestages Dark Pattern als "unethisch, mitunter unlauter und ggf. betrügerisch."[4][5] Laut der Stiftung Neue Verantwortung haben Dark Pattern Auswirkungen auf Privatsphäre, Verbraucherschutz, Plattformregulierung, Wettbewerbspolitik und Jugendschutz.[6]

Beispiele für Dark Patterns

Bait and Switch
Bei Bait and Switch (etwa: ködern und wechseln) versucht der Benutzer eine Aktion auszuführen, wobei jedoch eine andere – nicht zu erwartende – Aktion ausgeführt wird.[7]
Disguised Ads
Bei Disguised Ads (getarnte Werbung) wird Werbung als Inhalt der Seite oder der Navigationsführung ausgegeben, um den Benutzer dazu zu bringen auf diese zu klicken.[8]
Cookie consent tricking
Ein im Zusammenhang mit dem Einholen der Nutzerzustimmung angewendetes Design, das ein Ablehnen des Trackings unwahrscheinlicher macht.[9]
Faraway Bill
Eine Faraway Bill (etwa: weit entfernte Rechnung) ist eine Rechnung, die nur online einsehbar ist. Dadurch, dass der Benutzer aufgrund eines fehlenden physischen Mediums diese vergisst oder aufgrund komplizierter Menüführung nicht findet, kann der Benutzer auf unerwartete Rechnungsbeträge nicht reagieren.[10]
Forced Continuity
Eine Forced Continuity (erzwungene Kontinuität) liegt vor, wenn sich ein zeitlich begrenztes (kostenloses) Abonnement – für das der Benutzer seine Zahlungsdaten eingeben muss – automatisch verlängert. Hierbei wird dem Benutzer keine Erinnerung zugestellt, dass sich das Abonnement verlängert, oder kein einfacher Weg bereitgestellt, das Abo zu kündigen.[11]
Forced Disclosure
Bei einer Forced Disclosure wird der Benutzer dazu gebracht, für ein kostenloses oder günstiges Angebot persönliche Informationen preiszugeben, die für die eigentliche Transaktion nicht benötigt werden. Die Daten können dann etwa für Werbezwecke an Drittanbieter verkauft werden.[12]
Friend Spam
Bei Friend Spam (Freunde-Spam) wird der Benutzer unter einem Vorwand nach seinen Zugangsdaten (mit dem Passwort-Antimuster oder OAuth) für seinen E-Mail-Account oder eine Soziale Netzwerk-Plattform gefragt. Die Plattform, welche die Zugangsdaten erhält, bekommt dadurch die Möglichkeit, Spam im Namen des Benutzers an dessen Kontakte zu senden.[13]
Hidden Costs
(versteckte Kosten) sind Kosten, die erst im letzten Schritt der Bestellung angezeigt werden. Hierzu gehören Lieferkosten, Steuern und Ähnliches.[14]
Misdirection
Bei einer Misdirection (Fehlleitung) wird die Aufmerksamkeit des Benutzers von einem Inhalt auf einen anderen gelenkt.[15]
Price Comparison Prevention
Bei einer Price Comparison Prevention (Preisvergleichsverhinderung) wird der Preis eines Produktes versteckt, um einen effektiven Preisvergleich von Produkten zu verhindern.[16]
Privacy Zuckering
Das Privacy Zuckering ist ein Ausdruck, welcher von der Electronic Frontier Foundation (EFF) als Kritik an den für den Benutzer verwirrenden Privatsphäre-Einstellungen von Facebook nach dessen CEO Mark Zuckerberg benannt wurde.[17][18]

“Needed: A new word that means ‘deliberately confusing jargon and user-interfaces which trick users into sharing more info than they want to’”

„Benötigt: Ein neues Wort, welches „absichtlich verwirrender Wortlaut und Benutzerschnittstellen, die den Benutzer dazu bringen, mehr Informationen zu teilen, als sie wollen“ bedeutet“

Electronic Frontier Foundation[19]
Roach Motel (Obstruction)
(Schaben-Motel) bezeichnet Muster, die den Benutzer dazu bringen, einfach in eine bestimmte Situation zu kommen, es dem Benutzer aber schwer machen, aus dieser Situation wieder herauszukommen, falls diese Situation von ihm nicht gewünscht ist.[20]
Road Block
Ein Road Block (Straßenblockade) ist ein Objekt oder ein Vorgang, der den Benutzer daran hindert, eine bestimmte Aufgabe zu beenden.[21]
Sneak into Basket
Bei Sneak into Basket (in den Warenkorb schleichen) versucht der Benutzer ein bestimmtes Produkt zu kaufen. Jedoch legt die Applikation weitere Produkte in den Warenkorb, meist aufgrund einer nicht abgewählten Opt-out-Möglichkeit.[22]
Trick Questions
Trick Questions (Trickfragen) können dazu eingesetzt werden, den Benutzer dazu zu bringen, eine Frage auf eine Weise zu beantworten, die der Benutzer bei genauem Lesen anders beantworten würde.[23] Dieses Muster basiert darauf, dass Benutzer den Text nicht genau lesen, sondern nur „scannen“.[24][25]

Einsatz

Die Norwegische Verbraucherschutzorgansatzion beschreibt 2018 im Bericht "Deceived by design" den Einsatz von Dark Pattern durch Google, Facebook und Microsoft.[26] Auch das Kündigen einer Amazon-Prime-Mitgliedschaft wird durch Dark Pattern erschwert.[27]

Gegenmaßnahmen

Die Europäische Kommission kündigte 2020 in ihrer Verbraucheragenda an sich für bessere Verbraucherrechte einzusetzen.[28] Dies beinhaltet Maßnahmen gegen Dark Pattern.[29]

Siehe auch

Literatur

  • B. J. Fogg: Persuasive Technology: Using Computers to Change What We Think and Do. Morgan Kaufmann, 2003, ISBN 978-1-55860-643-2 (englisch).
  • Robert B. Cialdini: Influence: The Psychology of Persuation. HarperBusiness, 2006, ISBN 978-0-06-124189-5 (englisch).
  • Bryan Eisenberg: Call to Action: Secret Formulas to Improve Online Results. Thomas Nelson, 2010, ISBN 978-0-7852-1965-1 (englisch).
  • Richard H. Thaler, Cass R. Sunstein: Nudge: Improving Decisions About Health, Wealth and Happiness. Penguin, 2009, ISBN 978-0-14-104001-1 (englisch).
  • Quirin Weinzierl: Dark Patterns als Herausforderung für das Recht. NVwZ-Extra 15-2020.

Weblinks

Einzelnachweise

  1. Harry Brignull: Dark Patterns Library. Abgerufen am 31. März 2013 (englisch).
  2. Quirin Weinzierl: Dark Patterns als Herausforderung für das Recht. (beck.de [PDF]).
  3. Harry Brignull: Dark Patterns: dirty tricks designers use to make people do stuff. 90 Percent of Everything, 8. Juli 2010, abgerufen am 13. Mai 2013 (englisch).
  4. Stefan Krempl: "Klebrige" Apps: Bundestagsstudie kritisiert Psycho-Tricks von Entwicklern. heise online, 8. Januar 2020, abgerufen am 9. Januar 2020.
  5. Christoph Bogenstahl: Dark Patterns – Mechanismen (be)trügerischen Internetdesigns. Hrsg.: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. Themenkurzprofil Nr. 30, November 2019 (tab-beim-bundestag.de [PDF; abgerufen am 9. Januar 2020]).
  6. Dark Patterns: Design mit gesellschaftlichen Nebenwirkungen. Stiftung Neue Verantwortung, 13. Mai 2020, abgerufen am 17. Mai 2020.
  7. Harry Brignull: Bait and Switch. Abgerufen am 31. März 2013 (englisch).
  8. Harry Brignull: Disguised Ads. Abgerufen am 31. März 2013 (englisch).
  9. Cookie consent tools are being used to undermine EU privacy rules, study suggests. In: TechCrunch. Abgerufen am 15. Januar 2020 (amerikanisches Englisch).
  10. Harry Brignull: Faraway Bill. Abgerufen am 31. März 2013 (englisch).
  11. Harry Brignull: Forced Continuity. Abgerufen am 31. März 2013 (englisch).
  12. Harry Brignull: Forced Disclosure. Abgerufen am 31. März 2013 (englisch).
  13. Harry Brignull: Friend Spam. Abgerufen am 31. März 2013 (englisch).
  14. Harry Brignull: Hidden Costs. Abgerufen am 31. März 2013 (englisch).
  15. Harry Brignull: Misdirection. Abgerufen am 31. März 2013 (englisch).
  16. Harry Brignull: Price Comparison Prevention. Abgerufen am 31. März 2013 (englisch).
  17. Harry Brignull: Privacy Zuckering. Abgerufen am 31. März 2013 (englisch).
  18. Tim Jones: Facebook’s "Evil Interfaces". In: EFF Blog. Electronic Frontier Foundation, 29. April 2010, abgerufen am 31. März 2013 (englisch).
  19. Electronic Frontier Foundation: EFF Twitter Status. In: Twitter. 27. April 2010, abgerufen am 31. März 2013 (englisch).
  20. Harry Brignull: Roach Motel. Abgerufen am 31. März 2013 (englisch).
  21. Harry Brignull: Road Block. Abgerufen am 31. März 2013 (englisch).
  22. Harry Brignull: Sneak into Basket. Abgerufen am 31. März 2013 (englisch).
  23. Harry Brignull: Trick Questions. Abgerufen am 31. März 2013 (englisch).
  24. Steve Krug: We don’t read pages. We scan them. Sensible, abgerufen am 31. März 2013.
  25. Steve Krug: Don’t Make Me Think!: A Common Sense Approach to Web Usability. New Riders, 2005, ISBN 978-0-321-34475-5 (englisch).
  26. Forbrukerrådet (Hrsg.): Deceived by Design. 2018 (forbrukerradet.no).
  27. BBC News (Hrsg.): Amazon faces legal challenge over Prime cancellation policy. 14. Januar 2021 (bbc.com [abgerufen am 14. Januar 2021]).
  28. European Commission: New Consumer Agenda. 13. November 2020 (europa.eu [PDF]).
  29. Stefan Krempl: Psycho-Designtricks: EU-Kommission will gegen "Dark Patterns" vorgehen. heise online, 15. November 2020, abgerufen am 16. November 2020.