Spiele-Apps im Test

So haben wir getestet

12

Spiele-Apps im Test Alle Testergebnisse für Spiele Apps 10/2019

Im Test: In Koope­ration mit Jugendschutz.net prüften wir 14 beliebte Spiele-Apps, die in den App-Stores von Google und Apple verfügbar waren. 13 von ihnen gab es jeweils für die Betriebs­systeme Android und iOS. Eine App prüften wir nur für iOS, denn eine Android-Version war nicht im Google Play Store erhältlich. Ausgewählt haben wir die Apps unter anderem nach Anzahl der täglichen Nutzer, Umsatz­stärke und Downloadzahlen. Wir berück­sichtigten auch die Studien „Kindheit, Internet, Medien“ (Kim) sowie „Jugend, Information, Medien“ (Jim) aus dem Jahr 2018. Apps mit besonderen pädagogischen Aspekten, wie schu­lische Lern­spiele oder Spiele mit einer Alters­freigabe ab 16 (Google Play Store) beziehungs­weise 17+ (Apple App-Store), berück­sichtigten wir nicht. Wir wählten die Apps im Januar 2019 aus und prüften sie von Mai bis Juli 2019.

Unter­suchungen

Insgesamt acht Expertinnen und Experten über­prüften den Kinder- und Jugend­schutz, pro App waren es zwei. Sie gaben als Alter zehn Jahre an, sofern die App es abfragte. Die Ergeb­nisse berück­sichtigen, was die Prüfer bis zu dem nach mehreren Wochen erreichten Spiel­stand (Level) zu sehen bekamen.

So setzt sich unser Fazit zusammen:

Angemessen: grün in allen Kategorien

Bedenk­lich: mindestens ein gelbes, aber kein rotes Urteil

Inakzeptabel: mindestens ein rotes Urteil

Kindgerechte Inhalte

Wir prüften, ob Kinder und Jugend­liche mit Gewalt oder selbst­gefähr­denden, extre­mistischen beziehungs­weise sexuellen Inhalten konfrontiert werden – im Spiel selbst, in der Werbung oder in von Nutzern generierten Inhalten (zum Beispiel Clan- oder Spieler­namen). Zudem kontrollierten wir, ob die App es etwa mit Spielwährung oder anderen virtuellen Gütern belohnt, wenn Nutzer ihre Spiel­daten mit Social-Media-Platt­formen verknüpfen.

Sichere Nutzung

Wir untersuchten, ob die Voreinstel­lungen der App für ihre Nutzer einen umfassenden Schutz bieten, etwa inwieweit die Kinder beim Spielen mit Fremden in Kontakt kommen. Wir prüften auch, ob es nach­trägliche Einstellungs­möglich­keiten gibt – etwa, dass bestimmte Informationen nur für Freunde sicht­bar sind –, wie leicht die Einstel­lungen zu finden und ob sie verständlich sind. Bei Spielen mit Chat­funk­tion kontrollierten wir, ob die Chats moderiert werden und ob Wort­filter oder Blockier­funk­tionen vorhanden sind. Darüber hinaus haben wir untersucht, ob Kinder im Hilfe­bereich wichtige Infos finden, etwa Tipps zur sicheren Nutzung oder einen Hilfe­kontakt für Notfälle. Bewertet haben wir auch, ob die Hilfe leicht auffind­bar und kindaffin gestaltet ist und ob es dort Tipps für Eltern oder Pädagogen gibt.

Verstöße melden

Bei Spielen mit Nutzer­kommunikation haben wir untersucht, ob sich unan­gemessene Inhalte direkt melden lassen und ob man bei den Melde­möglich­keiten zwischen unterschiedlichen Themen auswählen kann. Außerdem haben wir geprüft, ob ein genereller Kunden­service angeboten wird und wie leicht sich der Kontakt zum Kunden­service finden lässt.

In-App-Käufe

Wir bewerteten, wie trans­parent Kosten dargestellt werden sowie ob Apps Spielern Kauf­anreize setzten oder direkt zum Kauf aufforderten.

Werbung

Wir prüften, ob die Apps Werbung einspielen und ob es einen Anreiz gibt, Werbe­videos anzu­sehen. Wir ermittelten, ob die Werbung vom eigentlichen Spiel getrennt und klar gekenn­zeichnet ist. Außerdem untersuchten wir, ob die Werbung den Spielfluss behindert.

Daten­schutz

Wir prüften den Umgang mit Nutzer­daten. Wir bewerteten, ob Spieler dazu aufgerufen werden, das Spiel Freunden zu empfehlen. Wir untersuchten, ob sich die App auch offline spielen und anonym nutzen lässt. Zudem prüfte ein Experte das Daten­sende­verhalten der App über einen zwischen­geschalteten Server. Wir haben die von den Apps gesendeten Daten ausgelesen, analysiert und, falls notwendig, entschlüsselt. So ermittelten wir, ob die Apps nur Daten senden, die sie zum Funk­tionieren brauchen. Ein Fachjurist prüfte die Daten­schutz­erklärungen auf unzu­lässige Klauseln und insbesondere, ob die Informationen und Hinweise zum Daten­schutz nach Artikel 12 DS-GVO Absatz 1 so formuliert sind, dass ein Kind sie verstehen kann.

Allgemeine Geschäfts­bedingungen

Ein Fachjurist untersuchte die allgemeinen Geschäfts­bedingungen auf unzu­lässige Klauseln, die Verbraucher benach­teiligen.

12

Mehr zum Thema

12 Kommentare Diskutieren Sie mit

Nur registrierte Nutzer können Kommentare verfassen. Bitte melden Sie sich an. Individuelle Fragen richten Sie bitte an den Leserservice.

Nutzer­kommentare können sich auf einen früheren Stand oder einen älteren Test beziehen.

LTQN am 25.02.2023 um 15:59 Uhr
Clash Royale-Bewertung zu hart ausgefallen

Also, ich selbst spiele schon seit ungefähr einem Jahr Clash Royale und finde, dass die Bewertung hier in einigen Punkten etwas zu hart ausgefallen ist.
Natürlich ist in Clash Royale ein gewisses Maß an Gewalt enthalten. ABER: Diese wird zum einen abstrakt gehalten, zum anderen wird in der Beschreibung des Spiels auf Google Play deutlich deklariert, dass aus diesem Grund das Mindestalter zum Spielen von Clash Royale 13 Jahre beträgt. Anstößige bzw. sexuelle Inhalte sind mir bislang nicht begegnet, das einzige, was einmal vorkam, war dass ich gegen eine Person mit extremistischem Namen gespielt habe, allerdings besteht in den Gruppenchats von Clans deswegen die Möglichkeit, solche Personen zu melden. Kaufanreize für In-App-Käufe gibt es überhaupt nicht, es wird hervorgehoben, dass das Spiel auch kostenlos gespielt werden und man die In-App-Käufe abstellen kann.

Profilbild Stiftung_Warentest am 08.06.2020 um 13:32 Uhr
In-App-Käufe

@ape_tw2006: Die Untersuchung ist mittlerweile über ein halbes Jahr her. Software kann schnell geändert werden. Die Spiele haben eine Altersempfehlung von meist ab 6 Jahren, teilweise schon ab 0 Jahren. Es ist uns klar, dass die Spielerzahlen extrem hoch sind. Aber es ist nicht verständlich, warum die Entwickler bzw. die Anbieter nicht dafür verantwortlich gemacht werden sollen, die Spiele entsprechend abzusichern. Was Kinder spielen dürfen oder nicht, sollte nicht allein auf dem Schulhof entschieden werden. Wie Eltern die Handy-Einstellungen (Android und iOS) vornehmen können/sollen, um ihre Kinder vor In-App-Käufen zu schützen haben wir auf test.de beschrieben. (DB)

ape_tw2006 am 06.06.2020 um 23:27 Uhr
@Stiftung_Warentest

Einige der Aussagen im Test sind grob falsch. Eine anstößige Nachricht im Clan chat in Clash of Clans oder Brawl Stars kann z. B mit einem Klick melden. Für rechtsextreme Namen kann man den Entwickler nicht verantwortlich machen, da die Spielerzahl von Clash of Clans mittlerweile Dimensionen erreicht hat die nicht mehr manuell zu kontrollieren sind. Auf Social Media Plattformen wie Youtube oder Instagramm ist dieses Problem weitaus größer. Man sollte außerdem ein Spiel aufgrund Anreizen für In-App-Käufe nicht als inakzeptabel bewerten, da Eltern In-App-Käufe einfach mit einem Passwort sperren können.
Wenn paranoide Eltern auf der Basis ihrer Tests Entscheidungen für die Kinder treffen haben die Kinder meist ein deutlich größeres Problem als eine brutale Werbung oder einen Spieler, der sich nicht an die Nutzungsbedingungen eines Spiels hält: Sie stehen vor Mitschülern absolut lächerlich da, weil die meisten Kinder in der Grundschule diese Spiele schon spielen.

Profilbild Stiftung_Warentest am 01.10.2019 um 15:26 Uhr
App-Inhalt und Inhalt von Nutzern bitte trennen

@niha1: Alles kontrollieren kann man sicher nicht und selbstverständlich sollten diese „Dinge“ mit den Kindern diskutiert werden. Dennoch, bestimmte Inhalte, die wir gefunden haben, verstoßen gegen gültige Gesetze. Darüber hinaus sehen wir durchaus die App-Entwickler in der Pflicht, bei bestimmten Inhalten zu reagieren -insbesondere, da sich ihre Dienste auch an Kinder und Heranwachsende richten. Kinder stehen unter besonderem Schutz und die Anbieter müssen hier Vorsorge treffen. Wenn Apps eine Nutzerinteraktion anbieten, wie z.B. eine Chatfunktion, dann sollte diese Funktion im besten Fall mit einer Moderation oder aber zumindest mit entsprechenden Wortfiltern und einer funktionierenden Blockierfunktion abgesichert sein. Darüber hinaus sollte es Meldemöglichkeiten geben, damit u.a. extremistische Inhalte oder Porno-Links von den Nutzern einfach und differenziert gemeldet und anschließend von den Anbietern entfernt werden können. In unserer Untersuchung hatte nur eine von den neun Apps, die eine Kommunikation erlaubten, ein ersichtliches Moderationskonzept. Das Meldeprozedere war teilweise kompliziert.(AC)

niha1 am 30.09.2019 um 15:29 Uhr
App-Inhalt und Inhalt von Nutzern bitte trennen

In diesem Test kommt die Trennung zwischen Inhalt der App und Inhalt, welcher von Nutzern generiert wird zu kurz. Ich finde, dass es nicht das das Problem der App sein sollte, wenn Nutzer menschenverletzende Inhalte verbreiten.
Kann man aus Lego ein Hakenkreuz bauen? Ja. Ist Lego deshalb rechtsextrem? Nein.
Kann man in einer Stadt rechtsextreme Parolen herumrufen? Ja. Ist die Stadt deshalb rechtsextrem? Nein.
Könnte man das überhaupt generell verbieten / kontrollieren und will man das überhaupt? Ich glaube nicht! (Meinungsfreiheit)
Soll man alle möglichen Schnittstellen, wo solch ein Gedankengut verbreitet werden kann blockieren und von Kindern fernhalten? Ich finde nicht!
Wie wäre es denn wenn man diese Dinge mit seinen Kindern diskutiert?! Dann werden sie lernen, dass es Menschen mit gefährlichen Ansichten gibt, und wie man damit umgehen soll. Denn solche Menschen wird es immer geben - mit oder ohne App!
Ein Verbot von Apps hilft nicht Rechtsextremismus zu bekämpfen, Bildung hi