Share Button

googloGoogle veut créer une base de données communautaire, partagée entre différents moteurs de recherche, où différentes organisations de protection des enfants pourront signaler des images pornographiques pédophiles.

Pour ce faire, une intervention humaine sera nécessaire : un numéro unique sera attribué à l’image, ce qui permettra une suppression rapide lorsque l’image en question fera surface de nouveau. Un seul signalement sera requis, puisque les outils technologiques permettent de reconnaître la même image (ils ne sont cependant pas assez puissants pour distinguer une photo innocente d’une photo d’un abus par eux-mêmes, d’où la première intervention).

Google va également financer la recherche pour faciliter la détection de contenu pédopornographique, avec une aide de 1,5 millions d’euros (2 millions de dollars) destinée aux développeurs de logiciels indépendants du monde entier, qui souhaiteraient s’inscrire au programme.

L’annonce de Google tombe juste au moment où des personnages politiques appellent à un filtrage du net plus sévère. Au début du mois de juin, le premier ministre britannique David Cameron demandait aux entreprises « d’arrêter de chercher des excuses » et d’agir à la place.

Si l’intention de Google est bonne, quelques détracteurs y voient pourtant déjà des failles. Qui aura accès à la base « bannie », comment contrôler cet accès ? D’autre part, la décision même de bloquer une image peut amener un débat, et pour cause : en 2008, l’Internet Watch Foundation – une des organisations qui signalerait du contenu inadéquat – avait censuré la pochette d’un album du groupe Scorpions sur Wikipedia, ce qui avait alors déclenché un tollé.

Source