Veröffentlicht am: 21.12.17

IGF Tag 3: Dynamic Coalitions Day

Autor: Jutta Croll , Organisation: Stiftung Digitale Chancen

IGF Day 3: Dynamic Coalitions Day (english version of the article)

IGF session

Der dritte Tag des IGF beginnt mit der Main Session of Dynamic Coalitions. Dabei handelt es sich um den Zusammenschluss von Organisationen und Einzelpersonen, die gemeinsame Interessen verfolgen und ihre Themen zusammen bearbeiten. Insgesamt sind zurzeit 17 Gruppen aktiv, die in ihrer Zusammensetzung ebenfalls das Multistakeholder-Prinzip spiegeln.

Die Dynamic Coalition on Child Online Safety – (DC-COS) wurde 2007 in Rio de Janeiro gegründet. Sie wird von ecpat international koordiniert und befasst sich mit allen Fragen, die Gefährdungspotenziale und Schutzmöglichkeiten für Kinder im Internet betreffen. In 2007 war die Stiftung Digitale Chancen mit dem europäischen Projekt Youth Protection Roundtable beim IGF vertreten. Wir haben uns schon bei der Gründung der Dynamic Coalition angeschlossen, um uns am internationalen Austausch zu Fragen des Jugendmedienschutzes zu beteiligen.

In der Main Session wurden die Arbeitsschritte und Ergebnisse, die in den zwölf Monaten seit dem IGF in Guadalajara erzielt wurden, vorgestellt und erörtert. Die Dynamic Coalition on Child Online Safety fokussierte auf die Declaration of Rome und den Input der Coalition Members zu diesem Dokument. Übergreifend wurden Synergien zwischen den einzelnen Coalitions deutlich, die künftig noch intensiver für die Arbeit genutzt werden sollen. Dazu gehören Themen wie Netzneutralität, öffentlicher Zugang und ein übergreifendes Konzept für die Einwilligung in Online-Aktivitäten, das unter dem Begriff des „Consent by Design“ diskutiert wurde.

Am Nachmittag fand der Workshop der Dynamic Coalition on Child Online Safety statt. Thema war das Monitoring von Inhalten. John Carr erläuterte für ecpat international, dass die Plattformanbieter ihre Anstrengungen zur Löschung illegaler Inhalte deutlich verstärkt haben. Gleichzeitig gebe es Berichte darüber, dass vielfach freiberuflich Tätige in Südostasien diese Aufgaben – oft unter schlechten Bedingungen – am häuslichen Arbeitsplatz wahrnehmen. Es sei nicht hinnehmbar, so John Carr, dass die westliche Welt ihren Inhaltemüll ebenso wie ihren Elektronikschrott in Entwicklungsländern ablade, wo schlechtbezahlte Frauen – teilweise auch in Anwesenheit der eigenen Kinder – Darstellungen schwerster Gewalt oder des sexuellen Missbrauchs von Kindern sichteten und aussortierten. Karuna Nain, facebook und Marco Pancini, Google erklärten den Umgang der von ihnen vertretenen Unternehmen mit Beschwerden über Inhalte. Die größte Herausforderung sei die Bewältigung der Menge an Reports. Alle illegalen Inhalte werden nach sorgfältiger Prüfung gelöscht, aber viele der gemeldeten Inhalte verstießen nicht gegen geltendes Recht oder die Bedingungen der Plattformbetreiber. Michael Tunks von der Internet Watch Foundation ging auf das Programm für die Mitarbeitenden ein, die sich täglich mit großen Mengen von kaum zumutbaren Darstellungen befassen müssen und erklärte, welche Vorsorgemaßnahmen getroffen werden, um die schweren Belastungen abzufedern. Larry Magid, Mitglied des Safety-Boards von facebook und anderer großer Unternehmen erklärte, dass ihm die Problematik von Personen, die freiberuflich derartige Inhalte monitoren und daher nicht durch entsprechende Programme angesprochen werden, bisher nicht bewusst gewesen sei. Das bestätigten mehrere der rund 50 Teilnehmenden an dem Workshop. Diese stellten zugleich kritische Fragen im Hinblick darauf, dass die Entscheidung ob ein Inhalt zulässig sei oder nicht zunehmend in den Händen der Plattformbetreiber liege. Catrin Bauer-Bulst von der Europäischen Kommission erklärte darauf hin, dass es in Europa keine Verpflichtung zum Monitoring gebe, die Unternehmen sich aber, wenn sie Kenntnis von illegalen Inhalten erlangen, an geltendes Recht halten müssten. Anders als in den USA sehe die E-Commerce-Richtlinie keine „Gute Samariter-Regel“ vor, nach der ein Plattformanbieter, der die Inhalte auf seinen Servern kontrolliert, nicht für die Löschung oder den Verbleib eines Inhalts haftbar gemacht darf.

Die Vorträge und Diskussionen zeigen die vielfältigen Facetten des Themas und belegen den großen Bedarf an umfassenden Strategien und ganzheitlichen Schutzkonzepten für mehr Onlinesicherheit von Kindern und Jugendlichen. Viel zu tun für die Dynamic Coalition on Child Online Safety auch im Jahr 2018!

Weitere Informationen

Quelle: Stiftung Digitale Chancen


Verwandte
Themenbereiche:
Jugendschutz, Zensur von Inhalten