Wikipedia



how_to_disappear

Vous êtes décidé à disparaître d’Internet et effacer vos traces une fois pour toutes ? Le graphique ci-desosus (en anglais) publié par  Who Is Hosting This vous indique les neuf étapes à accomplir pour effacer votre présence en ligne.

C’est un résumé du  Guide du Suicide Numérique publié jadis par LIFEHACKER – allant des effacements de profils jusqu’aux demandes de suppression des  listes de collecte de données. Mais il explique aussi comment gérer les comptes qui ne peuvent être supprimés en falsifiant les informations et en contactant votre fournisseur téléphonique afin de ne plus figurer dans les annuaires.  (suite…)


Réseaux sociaux : l’anonymat ne garantit pas le respect de la vie privée

Reconstituer l’identité d’un internaute à partir des informations disponibles sur les réseaux sociaux est un jeu d’enfant. Un programme brise sans difficulté toutes les défenses mises en place contre ces attaques.

[L’Atelier -23 Mars 2009]

Les données privées des utilisateurs sont une précieuse information, notamment pour les publicitaires ou les développeurs d’applications. Mais lors de sa navigation, un utilisateur est théoriquement anonyme, grâce à un système de protection fourni par son opérateur. Par exemple, les informations liées au nom sont supprimées. Pourtant, une équipe de l’université d’Austin au Texas a réussi à créer un algorithme de re-identification. Ils ont pour cela agrégé les informations disponibles sur les réseaux sociaux visités par l’utilisateur. L’objectif : démontrer – uniquement par la topologie, la structure du réseau – que sur les réseaux sociaux, les données privées peuvent facilement être retrouvées par recoupement.

12% de réussite

Sans avoir besoin de créer d’attaque Sybil, qui force l’accès à l’identité, l’algorithme a réussi à briser les défenses existantes. Lors de son expérimentation, l’équipe a pu, ré-identifier 12% des internautes étudiés, en utilisant leurs informations publiées sur Flickr et Twitter. Ce, alors même que l’équipe n’a travaillé que sur un nombre ténu d’informations disponibles. Avec un nombre plus grand d’informations, les risques d’attaques contre la vie privée seraient encore plus efficaces. L’étude insiste sur la différence à effectuer entre suppression des informations d’identification personnelle et la suppression de toutes les informations « auxiliaires » disponibles, susceptibles d’aider à retrouver l’identité de l’internaute.

L’anonymat n’est pas suffisant

Les chercheurs citent l’exemple de l’Union Européenne, pour qui les données personnelles ne concernent par uniquement le nom, mais également les données sur son identité physique, physiologique, mentale, économique, culturelle ou sociale. Selon les chercheurs, l’anonymat n’est donc pas équivalent de respect de la vie privée. Plus, ils affirment que l’anonymat n’est pas suffisant pour préserver l’identité des internautes sur les réseaux sociaux. Les chercheurs préconisent l’adoption de lois et de pratiques claires quant au respect de la vie privée.

http://www.atelier.fr/securite/10/23032009/reseaux-sociaux-reseau-social-anonymat-vie-privee-donnees–38010-.html


[ Demain la veille – Aref JEDY – 31/01/2009] ]

Pour tous ceux qui s’intéressent aux problématiques de la veille image, e-réputation, reputation management, identité numérique ou encore le personal branding, voici la boite à outils de veille nécessaire pour assurer une bonne couverture de son périmètre : actualités, blogs, commentaires, réseaux sociaux, forums…Ceci intéresse les individus et internautes soucieux de leur image en ligne, mais aussi les responsables et chargés de veille, communication, marketing…pour savoir ce qu’on dit sur leurs produits, leurs marques, leurs entreprises, leurs dirigeants…

Les métamoteurs sociaux : ce sont des outils qui vont chercher dans différents types de sources comme les réseaux sociaux, les blogs, les microblogs…

  • Whostalkin dont j’ai parlé ici il y a quelques semaines )
  • Samepoint permet d’interroger à la fois les réseaux sociaux, les blogs et commentaires, les forums, les microblogs mais aussi les actualités, les images et vidéos.
  • Socialmention est assez proche de Samepoint à la différence qu’il affiche à chaque requête une répartition des résultats par source, et qu’il couvre aussi les bookmarks.
  • Serph est un autre métamoteur mais qui est moins performant que ceux présentés ci-dessus vu sa couverture limitée, et le fait qu’il indexe très peu de contenu francophone.
  • Icerocket BigBuzz que j’ai présenté ici.

Les moteurs de recherche des blogs : ce sont des outils qui vont chercher des contenus en provenance de blogs (parfois de flux RSS d’autres sources) et/ou qui permettent d’identifier des blogs dans un domaine spécifique.

Les moteurs de recherche d’actualité :

Les outils de suivi des commentaires : à côté des plugins proposés par les plateformes de blogs type WordPress, certaines applications permettent de suivre l’apparition de mots clés spécifiques dans les champs commentaires ou de suivre l’évolution d’une discussion par commentaires.

  • Backtype est un outil qui permet de récupérer les résultats de recherche sur un mot clé ou une expression publiés dans les commentaires d’un blog. Il interroge principalement les blogs publiés sous Blogger, mais permet de générer soit des mails d’alerte soit des flux RSS à chaque recherche.
  • coComment permet quant à lui de suivre l’évolution d’une discussion par commentaires sur une source spécifique.
  • Yacktrack dispose d’un périmètre un peu plus large puisqu’il intègre Friendfeed, Digg et WordPress dans son index.

Les outils de veille / de recherche des forums : les forums posent toujours un problème lors de leur surveillance puisqu’ils ont une structure un peu particulière qui ne facilite pas la tâche à ces logiciels de recherche ou de veille. Les outils présentés ici sont principalement à large couverture anglosaxonne.

Les outils de veille de microblogs : sont des outils qui permettent de suivre les citations d’un mot clé ou d’une expression sur les supports de micro-communication comme Twitter. Ils proposent soit des flux RSS soit des alertes par mail.

Les agrégateurs sociaux : sont des plateformes qui permettent de regrouper et d’agréger différents flux en provenance de diverses sources type Facebook, Twitter, Blog…

Si vous connaissez d’autres applications, d’autres outils, n’hésitez pas à les proposer en commentaires : une cartographie de ces outils verra le jour prochainement une fois j’arriverai à un bon panorama ;)

http://www.demainlaveille.fr/2009/01/31/e-reputation-la-boite-a-outils-du-veilleur/


[ Israel Valley –  Sébastien Fortin – 27 janvier 2009 ]

Le Dr Yair Amichai-Hamburger, chercheur au Research Center for Internet Psychology du Centre Interdisciplinaire d’Herzlyia, vient de publier les résultats d’une étude portant sur les contributeurs de la célèbre encyclopédie en ligne, Wikipedia.

Parue dans CyberPsychology & Behavior, cette étude révèle que les contributeurs de Wikipedia ne sont pas altruistes et cultivés mais plutôt fermés d’esprit et motivés par leur égo.

Deux questionnaires ont été soumis aux contributeurs de Wikipedia. Le premier portait sur la sociabilité et le second sur les traits de personnalité. Ces questionnaires ont été remplis par le même nombre d’internautes n’ayant jamais contribués à Wikipedia.

Les résultats sont sans équivoque. Les contributeurs de l’encyclopédie en ligne privilégient leur “moi virtuel” à leur vie réelle. Ils sont également moins ouverts d’esprit et plus introvertis que les autres internautes.

Selon le Dr. Yair Amichai-Hamburger, les contributeurs de Wikipedia compensent leurs problèmes d’ego et leur difficulté d’expression dans le monde réel.

Le Research Center for Internet Psychology du Centre Interdisciplinaire d’Herzlyia, travaille actuellement sur une étude concernant Facebook.

http://www.israelvalley.com/news/2009/01/27/21382/israel-internet-wikipedia-les-contributeurs-de-l-encyclopedie-wikipedia-sont-introvertis-et-bornes


[Gregor Seither – IES Media Cooperative – 15/11/2008]

En Allemagne, la justice (tente) de laver la réputation d’un homme politique sur Internet. La semaine dernière, quand vous tentiez d’accéder au site allemand de WIKIPEDIA, vous tombiez sur une page ne contenant qu’une déclaration de l’association Wikimedia Deutschland, traduite ci-dessous

Suite à une injonction préliminaire du tribunal de Lübeck du 13. November 2008, à la demande de Lutz Heilmann, Membre du Parlement (Parti de Gauche / Die Linke), il est interdit à l’association Wikimedia Deutschland e.V. de, « rerouter l’adresse wikipedia.de vers l’adresse Internet de.wikipedia.org », et ce aussi longtemps que « sous l’adresse de.wikipedia.org » sont publiées certaines informations relatives à Lutz Heilmann. Jusqu’à nouvel ordre l’offre de Wikimedia doit donc être suspendue. L’association Wikimedia Deutschland e.V. va se porter en appel contre cette décision de justice.

Lutz Heilman a donc réussi à « faire fermer Wikipedia » – partiellement seulement, étant donné qu’il suffisait de taper l’adresse de.wikipedia (qui n’est pas rattachée à l’association allemande et se situe donc en dehors du champ de la justice allemande) pour pouvoir lire la fameuse fiche biographique du député Heilman.

La carrière politique de cet ancien citoyen de la RDA n’a rien d’extraordinaire, si ce n’est qu’il est devenu, en 2005, le premier ancien membre à temps plein de la police politique est-allemande (STASI) à être élu au parlement national allemand. Et c’est bien cela qui irrite notre homme, à la lecture de sa fiche sur Wikipedia.

On y rappelle que – contrairement à ce qu’il avait affirmé – il a bien servi trois ans comme soldat volontaire à la STASI, ne quittant la police secrète qu’au moment de sa dissolution. Et qu’il avait caché son appartenance à la police politique lors de sa candidature électorale, manquant de peu se faire exclure pour cela de son parti.

Par ailleurs il est fait mention de son homosexualité, qui est loin d’être secrète, étant donné que le député à fondé en 2007 le groupe de travail Gay Lesbien Trans au sein de son parti au Schleswig-Holstein et a activement participé aux manifestations dans le cadre du Christopher-Street-Day dans plusieurs villes allemande.

Mais tout cela, M. Heilman ne veut pas qu’il en soit fait mention sur le Web. Alors que fait il ? Au lieu de contacter les administrateurs de Wikipedia comme tout un chacun, et bien il porte plainte et obtient, en quelques jours, la fermeture pure et simple de l’accès à l’encyclopédie…

Ce qui est surprenant, c’est qu’il se soit trouvé un juge en Allemagne pour décréter une injonction préliminaire contre Wikipedia, sous l’accusation que la fiche contiendrait des informations « non prouvées sur M. Heilman » alors qu’un simple coup d’oeil à la page suffit de prouver qu’elle ne contient que des faits énoncés depuis des années et jamais niés par l’intéressé lui-même..

Devant la campagne de protestation – et sous la pression de son propre parti, horrifié par la publicité négative que lui cause l’action de son député – Heilman retire sa plainte et obtient la levée de l’injonction. Wikimedia de son côté, regrette la fermeture mais signale quand même avoir reçu 16 000 euros de dons de soutien en un seul weekend, la majorité accompagnés d’une note indiquant que le don est directement en relation avec l’action du député Heilman.

A la gauche (Die Linke), où la place de Lutz Heilman est déjà controversée de par son activité passée, on s’interroge ouvertement sur la poursuite de sa carrière politique…


[Forum ATENA – 08/11/2008]
Web 2.0, e-commerce, encyclopédies en ligne, réseaux sociaux : nous sommes entrés dans l’économie de l’immatériel ! Mais quelles sont les bases de cette économie ?

Chacun a expérimenté la volatilité des données informatiques, un clic malheureux et ce sont toutes les photos des dernières vacances qui se sont envolées.

On en parle peu, mais il se produit des choses similaires sur le web, et ce n’est pas toujours par accident : suppressions de comptes Facebook, censure de données sur Wikipedia, non publication d’avis sur Amazon, commentaires effacés des blogs …

Ainsi des pages disparaissent sur l’encyclopédie, sans que l’auteur en soit informé, et avec des arguments discutables. De même, sur les réseaux sociaux, des pages personnelles sont purement censurées, sans alerte, sans explication … et sans que la victime n’ait commis d’acte répréhensible. Des vidéos sont supprimées alors que l’auteur en détient les droits et que les paroles et images n’enfreignent aucune loi.

Face à ces situations, nous sommes impuissants : pas d’interlocuteurs, ou une adresse anonyme qui ne répond que ce qu’elle veut bien communiquer, des codes de conduite obscurs ou donnant tous pouvoirs aux gestionnaires de sites, etc.. Ce forum est là pour rassembler les expériences et partager l’information pour faire avancer la démocratie du web participatif … à défaut de pouvoir y remédier.

Alors, comme Erik Satie, peut être devrions nous faire notre sa phrase « Bien que nos renseignements soient faux, nous ne les garantissons pas ».

http://forumatena.org/?q=node/139#web2


<!–Web 2.0 : gare à la surcharge d’informations
[Silicon.fr – 06/11/2008]
Lors du Web 2.0 Summit de San Francisco, des experts ont regretté l’encombrement de plus en plus important de la Toile avec des données souvent inutiles. Les experts sur l’utilisation des contenus générés par les internautes (user generated content) et des projets Web 2.0 craignent que cette tendance mène à inonder le Web de données inutiles.

A l’occasion d’une conférence au Web 2.0 Summit de San Francisco, des experts ont déclaré que cette pléthore de nouvelles informations représente à la fois un avantage et un sérieux danger, susceptible d’entraîner la confusion chez les internautes.

« La Loi de Moore est à la fois un avantage et un inconvénient », a déclaré James Powel, directeur technique chez Thomson Reuters. « Toutes sortes d’informations sont ajoutées à une fréquence très élevée. C’est aux acteurs de l’industrie que revient la tâche de gérer ce gigantesque flux d’informations. »

Quel danger ? James Powel prend comme exemple le cas de la crise financière actuelle. Jamais autant d’informations n’avaient été mises à disposition de l’industrie. Mais c’est cet excès de données qui leur a empêché de voir les signes avant-coureurs de la crise, estime-t-il.

En guise de boutade, James Powel raconte qu’un de ses collègues lui a suggéré que « le Web 3.0 devrait nettoyer le grand nombre de déchets laissés par les projets Web 2.0″.

D’autres participants ont reconnu que l’un des problèmes majeurs des projets Web 2.0 était le filtrage des informations inutiles, en affirmant que le résultat final en vaudrait la peine.

« Nous allons évoluer et devenir autre chose que de simples chercheurs/collecteurs d’informations », a déclaré David Marks, directeur technique de Loomia, qui exploite un moteur de recherche pour les podcasts audio et vidéo. « Nous allons assister au développement de médias qui ne se contenteront plus de simplement livrer des informations. Les sources d’informations vont devenir interactives. »

http://www.silicon.fr/fr/news/2008/11/06/web_2_0___gare_a_la_surcharge_d_information

Page suivante »

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 134 autres abonnés