[Nouvel article] Pourquoi la radicalisation des communautés d’Internet n’est pas une fatalité

J’ai le plaisir d’annoncer la parution dans le dernier numéro de la Revue Française de Sociologie de notre nouvel article :

How to build consensus in a health-oriented online community: modelling a “pro-ana” forum.
Antonio A. Casilli, Juliette Rouchier & Paola Tubaro.
Revue Française de Sociologie, vol. 55, n. 4, 2014, pp. 731-764.

http://www.anamia.fr/WordPress-EN/wp-content/uploads/2014/12/socio_4-2014-Art-03-Casilli-et-al-06-11-2014.pdf
Cliquer sur l’image pour le pdf de la version preprint.

(pour citer l’article, merci de vous référer au texte publié).

Issu de notre projet de recherche ANAMIA, l’article élabore une réponse à la question : est-ce que les membres des plateformes numériques où des opinions controversées sont débattues ont tendance à se radicaliser et à adopter des comportements dangereux ?

Cette problématique a d’importantes retombées dans des domaines disparates, de la politique, à la culture, à l’économie. Nous avons décidé de mettre l’accent sur la santé – plus précisément sur les troubles alimentaires. S’il est un enseignement à tirer de l’étude des « forums pro-ana », c’est que les attitudes paradoxales à l’égard du comportement alimentaire peuvent conduire à une forte polarisation. Sous quelles conditions les personnes vivant avec l’anorexie et la boulimie acceptent ou refusent la médiation médicale ? Comment adoptent-elles une orientation « pro-guérison » ou une orientation « pro-pathologie » ?

Après un terrain d’enquête de trois ans et plusieurs expériences in silico réalisées à l’aide d’un modèle multi-agent spécialement conçu (ANAMIA_F), nos conclusions déjouent certains des acquis de la littérature existante sur les dynamiques de diffusion des opinions via Internet.

https://github.com/Bodyspacesociety/ANAMIA_F

Cliquer sur l’image pour télécharger le logiciel ANAMIA_F
(disponible sur Github sous licence GPL).

Le résultat principal de notre travail est que la radicalisation n’est pas une fatalité : elle ne survient que dans des circonstances très spécifiques. Dans la détermination de ces circonstances, les attitudes initiales (utilisateurs intrinsèquement plus radicaux ou plus modérés) importent moins que les mécanismes de participation en ligne. Le taux d’engagement actif et le taux de renouvellement des membres de la communauté – deux variables négativement impactées par la censure – influencent l’émergence de positions modérées.

Ces résultats peuvent aider l’adoption de politiques publiques qui soient à la fois efficaces dans la promotion de comportements de santé et respectueuses de la liberté d’expression en ligne.

Share Button

No CAPTCHA: yet another ruse devised by Google to extract free digital labor from you

Short version:

Question: What is “No CAPTCHA reCAPTCHA”?
Answer: A ruse devised by Google to extract some sweet, free, Mechanical Turk-like digital labor from its users.

Long version:

So far reCAPTCHA allowed Google to extract digital labor from users, i.e. to make users produce value for Google without them knowing. When you needed to retrieve the occasional password or to post a comment on certains blogs, you had to “verify that you were human” by typing in words that would ultimately help Google Books digitize texts, or detect house numbers to improve Google Street View.

But people at Mountain View’s Googleplex heard reCAPTCHA could be frustrating to you, beloved user. So “No CAPTCHA reCAPTCHA” was introduced. “No CAPTCHA” is a new system which does not burden you with deciphering distorted text. It simply asks you “are you a robot?”

Well, not simply that. It also grabs a bunch of personal data along the way. How? Via simple questions, subsequently linked to your profile on websites connected to its API: personal preferences, opinions, behaviours… yeah, questions as innocent as “your favorite color” can actually tell a lot about you.

Moreover, what “No CAPTCHA” does is basically track your past behaviour. If it has enough data to feast upon, because you have cookies and web browser history on, it puts you on a whitelist and lets you in whichever service it is attached to. But if you are browsing in private mode or if it finds the info it has on you does not suffice to appease its hunger for data, it will face you with even more annoying reCAPTCHAs.

Yes, even more annoying: why limit to unintelligible words, Google ingeneers seemed to say, when you can force users to recognize forms, tag pictures, etc? It’s not only single Google Books or Google Street View instances you’re recognizing. Now, you’re actually training Google’s computer vision algorithms to recognize faces, detect locations, reconstruct scenes.

cat_captcha

These are the kind of Human Intelligence Tasks (HITs) that are performed by members of another popular service: Amazon Mechanical Turk, a crowdsourcing marketplace where humans “help machines” to perform such assignments. Only difference: “turkers” receive monetary payments for the microwork they provide. Google’s “noCAPTCHERs” don’t. At present, turkers have engaged a complex process of community-building centered around recognizing their role as workers. Will no CAPTCHA lead to the same awareness or, on the contrary, will it defuse any attempt to create support and collective action among its users?

Anyway, enough with this rant. Here’s the official presentation of No CAPTCHA reCAPTCHA and… keep up the good digital labor.

Share Button

[Slides] ‘Etudier Facebook avec Algopol’ séminaire #ecnEHESS (Irène Bastard & Cristophe Prieur, 15 déc 2014)

Pour la deuxième séance du séminaire EHESS Étudier les cultures du numérique : approches théoriques et empiriques nous avons eu le plaisir d’accueillir Irène Bastard (Orange Labs et Télécom ParisTech) et Christophe Prieur (Université Paris Diderot-Paris 7) pour parler de leur projet de recherche ANR Algopol. Le séminaire a eu lieu le lundi 15 décembre 2014, de 17h à 20h, salle 2, 105 bd. Raspail, Paris.

Algopol : une expérimentation sociologique sur Facebook

TITRE : Algopol : une expérimentation sociologique sur Facebook

INTERVENANTS : Irène Bastard (Orange Labs/Télécom ParisTech) et Christophe Prieur (Université Paris Diderot-Paris 7)

RESUME : L’application Algopol est une expérimentation sociologique lancée en décembre 2013 : elle collecte les comptes Facebook des enquêtés et leur permet de visualiser leur réseau d’amis Facebook sous la forme d’une carte interactive. Le projet entre ainsi dans la catégorie des recherches en informatique et sciences humaines utilisant des « big data », tout en rappelant que le sens donné aux activités ne peut être signifié que par les enquêtés par une approche qualitative. Avec 1 Téraoctet de données sur plus de 12 000 individus, et des entretiens semi-directifs ou en démonstration, que peut-on dire du web des individus ? Ou plutôt, le web des individus, entremêlé au web des contenus, peut-il produire une représentation signifiante de la société ?

Cette question sera abordée par la perspective de la diversité. Si les usages du web sont connus comme hétéroclites, les dispositifs et les réseaux sociaux doivent alors intégrer deux diversités : celle des pratiques des internautes, qui sera observée en étudiant leurs profils et leurs activités ; et celle des contenus circulant, qui sera envisagée au regard des contenus médiatiques. Sur ces deux volets, l’analyse de la structure des réseaux des enquêtés apporte un éclairage essentiel, puisqu’elle permet d’approcher la multiplicité des contextes d’expression d’un même individu.  Elle permet dans le même temps d’interroger la force et la nature des liens matérialisés sur une plateforme qui a résolument donné au mot “ami” une définition protéiforme.

En complétant l’analyse des traces d’activité et d’interactions par des entretiens, l’enquête Algopol pourra décrire les multiples modalités d’agencement d’interactions qui mêlent règles d’usage et ajustements ponctuels, produisant des « algorithmes relationnels » potentiellement distincts des « algorithmes techniques ».

>> Pour aller plus loin : article d’InternetActu sur la méthodologie Algopol.

Slides des séances passées :

Mercredi 19 novembre 2014
Antonio A. Casilli (Télécom ParisTech/EHESS)
« Le trolling en tant que ‘travail numérique’ »

Détail des prochaines séances :

Lundi 19 janvier 2015
Xavier de la Porte (Rue89)
« Radio et cultures numériques : Retour sur l’expérience ‘Place de la Toile’ »
salle 5, 17h-20h

Lundi 16 février 2015
Benjamin Tincq (Ouishare) et Paola Tubaro (University of Greenwich/CNRS)
« L’économie collaborative : promesses et limites »
salle 5, 17h-20h

Lundi 16 mars 2015
Ksenia Ermoshina (Mines ParisTech) et Rayna Stamboliyska (IRIS Sup’)
« Internet et militance en Russie »
salle 5, 17h-20h

Lundi 18 mai 2015
Boris Beaude (EPFL)
« Numérique : changer l’espace, changer la société »
salle 5, 17h-20h

Share Button

[Slides] Portrait du troll en travailleur revolté (séminaire #ecnEHESS 19 nov 2014)

La première séance de mon séminaire EHESS Étudier les cultures du numérique : approches théoriques et empiriques (hashtag Twitter : #ecnEHESS) a eu lieu le mercredi 19 novembre 2014. Les slides de ma présentation, portant sur les liens entre trolling et ‘digital labor’, sont disponibles ici :

View Fullscreen

 

Le trolling en tant que ‘travail numérique’

Antonio A. Casilli (Telecom ParisTech / EHESS)

Le troll, l’internaute qui tient des propos inflammatoires et qui parasite les conversations en ligne, est désormais synonyme de tous les maux du monde en réseau : piratage, abus, calomnies, racisme, harcèlement, sexisme, spam, cybercrime, terrorisme… Archétype humain inspiré des légendes scandinaves et des « tricksters » des mythes africains et amérindiens, il est au centre de discours de plus en plus alarmistes d’éducateurs et de décideurs publics, et fait l’objet de législations spécifiques. Le projet politique qui se profile derrière ces efforts, celui d’un « internet civilisé », colporté par les droites européennes depuis la moitié des années 2000, ne peut pas être appréhendé d’un point de vue critique si nous ne comprenons ce qu’est une civilisation numérique et sur quelles valeurs elle s’appuie.

C’est à ce moment-là que la « barbarie digitale » du troll cesse d’être une simple curiosité culturelle et devient une manière d’apercevoir, en creux, les valeurs partagées par les citoyens de la société en réseau : participation, sociabilité, dévoilement d’informations personnelles, et « digital labor ». Ce dernier désigne l’ensemble des activités et des usages numériques qui peuvent être assimilés au travail mais ne sont pas reconnus comme tel. C’est un travail à faible intensité et à faible expertise, qui se concentre surtout sur l’usage de plateformes sociales, d’objets connectés ou d’applications mobiles. De la moindre requête sur un moteur de recherche à la mise en ligne de contenus générés par les utilisateurs, des nouvelles formes de l’activité travaillée s’articulent avec une économie informelle qui cache la précarisation croissante des emplois.

En tant que pattern d’interactions sociales basées sur la production et le partage de contenus, le trolling se prête à une récupération marchande dans plusieurs univers professionnels. Les marques s’en servent pour dénicher des mèmes et faire de la communication virale ; la communication politique pour monter des campagnes de propagande ou pour discréditer les adversaires ; les concepteurs de logiciels et de jeux-vidéos pour tester leurs produits. La monétisation du trolling dans l’économie numérique témoigne de son rôle naissant de levier de l’innovation et de son importance croissante pour la création de valeur. Il existe néanmoins des contradictions. D’abord dans l’attitude ambivalente des entreprises du secteur numérique qui semblent osciller entre la répression et l’exploitation des comportements « disruptifs » des leur main-d’œuvre digitale. Plus intéressants encore sont les répertoires d’actions spécifiques (détournement, dégradation, reprise individuelle, collectivisation) et les modalités de conflit qui passent par le trolling et pointent la prolifération paradoxale d’approches antagonistes, ainsi que la potentialité d’une mouvance d’autonomisation des usagers-laborers.

Se dessine alors l’hypothèse d’une inscription de ces comportements anomiques dans la filiation historique des luttes des prolétariats industriels, la « rude race païenne, sans foi, ni loi, ni idéal » analysée par les théoriciens de l’opéraïsme. Si les hackers héritent des « sublimes », ouvriers émancipés maîtres de leur temps et de leur mobilité, les trolls quant à eux s’apparentent peut-être davantage aux « canuts », auxquels on impute l’invention de la pratique du sabotage (la destruction de machines industrielles à l’aide de sabots). C’est la machine à tisser le lien social, la machine à moudre les opinions qu’est devenu Internet, à laquelle ces invisibles du travail numérique s’attaquent. C’est la rhétorique irénique des médias sociaux où l’amitié et l’esprit de communauté semblent devoir triompher à tout prix, où l’utopie d’une liberté soustraite à toute contrainte matérielle plane encore sur un univers d’usages de plus en plus censuré, compartimenté, surveillée. Le trolling nous rappelle la possibilité – mieux, la certitude – du conflit et de sa force mercurielle, qui attire et fascine. Et nous met face à une question complexe : assistons-nous à la naissance d’un « cognitairiat », d’un « pronétariat », voire même d’un « trollétariat » ? Sans doute, des nouveaux sujets sociaux se trouvent-ils réunis sous le signe de l’« impossibilité humaine » d’une classe, qui se cache derrière ce que Nietzsche aurait décrit comme «un arrangement social incompréhensible et inopportun ».

 

Prochaines séances 2014/15

 

 

 

 

Share Button

Clowns effrayants : marre d’être le seul à ne pas avoir pondu une analyse super intelligente…

The English version of this post is available on Medium (with a slightly different title).

Halloween vient de passer, mais la panique ne semble pas près de s’arrêter. Les « clowns effrayants » ! La plus grave crise que la France ait connue depuis la Grand Peur de l’été 1789, la rumeur d’Orléans de 1969 et le bug de Facebook de 2012 ! 1 Le peuple a peur. Les forces de l’ordre semblent impuissantes.

Arrestclown

On se tourne alors vers les intellectuels pour demander des réponses. Sur ce sujet plein de personnes super intelligentes ont dit des choses super intéressantes. Certes, ils les ont dites au bout de dizaines de sollicitations de la part de journalistes qui voulaient juste écrire des histoires type : « Notre société devient de plus en plus violente, chère madame, et c’est la faute à Internet », mais bon… Le psychologue Yann Leroux, par exemple, reconnait que les clowns maléfiques « nous apprennent tout d’abord que notre manière de réagir devant les difficultés de la vie est en train de changer. La rage et la violence sont en train de remplacer la dépression comme modalité organisée aux difficultés de la vie ». L’infocommien Olivier Ertzscheid insiste sur la facilité des sentiments primitifs à se propager « sur les réseaux sociaux, qui disposent du plus fort potentiel de viralité ».

Petit aparté : si vous êtes chercheur et que vous voulez être interviewé, c’est très bien d’écrire un billet de blog « de positionnement ». Comme ça, les journalistes qui tombent sur vous après avoir googlé « sociologie + clown » (ou n’importe quelle autre combinaison de « nom de discipline universitaire + sujet sur lequel le journaliste mise cette semaine pour faire un max de partages sur Facebook ») savent déjà ce que vous allez leur raconter.

Bref, j’en avais marre d’être le seul à ne pas avoir pris le temps de pondre une analyse bien touffue de ce phénomène des clowns effrayants. Et pourtant, j’aurais tellement de choses à dire à ce sujet ! Il n’y a pratiquement pas d’aspect de notre société ou de notre culture que je ne sois pas capable de mettre en relation avec ces fichus clowns. C’est pourquoi j’ai créé le hashtag ‪#‎ToiAussiAnalyseLesClownsMalefiques‬ sur Twitter, réunissant toutes mes idées les plus brillantes.

 

Si vous êtes journaliste, vous pouvez choisir le thème qui mieux s’adapte à l’angle de votre papier, puis prendre rendez-vous téléphonique avec moi. Je vais volontiers gâcher une heure de mon temps pour développer in extenso avec vous ce que je ne pouvais pas dire sur Twitter à cause de la contrainte des 140 caractères. Aussi, avant de m’appeler, il vaudrait mieux que vous lisiez la note 1 de ce billet ! Trololo.

  1. L’usage de points d’exclamation indique que je suis en train d’utiliser un expédient rhétorique connu sous le nom de « sarcasme ». Rien que dans ce billet, je vais m’en servir au moins à deux autres endroits, donc faut s’y faire, hein.
Share Button

Programme 2014/15 de mon séminaire ‘Etudier les cultures du numérique’ #ecnEHESS

ENFIN ! Pour la septième année consécutive (et après avoir risqué d’être annulé d’office par l’EHESS) (et après avoir pris un retard fou), le séminaire Étudier les cultures du numérique : approches théoriques et empiriques (#ecnEHESS) reprend pour l’année universitaire 2014/15. Pour récompenser votre patience, le programme de cette année réserve plus d’une surprise.

semEHESS14

Comme toujours les inscriptions sont ouvertes aux auditeurs libres : il suffit d’envoyer un petit mail gentil via ce formulaire. La première séance aura lieu le mercredi 19 novembre 2014. Les séances successives, le troisième lundi de chaque mois de 17h à 20h. NB: le seminaire a lieu à l’EHESS, 105 bd. Raspail, de 17 à 20h. Pour les dates et les salles, se référer à la page de l’enseignement.

Programme « Etudier les Cultures du Numérique »

 

  • Mercredi 19 novembre 2014
    Antonio Casilli (Télécom ParisTech/EHESS)
    « Le trolling en tant que ‘travail numérique' »
    salle 2, 17h-20h

 

  • Lundi 15 décembre 2014
    Irène Bastard (Telecom Paristech) et Christophe Prieur (Univ. Paris Diderot)
    « Algopol : une expérimentation sociologique sur Facebook »
    salle 2, 17h-20h

 

  • Lundi 19 janvier 2015
    Xavier de la Porte (Rue89)
    « Radio et cultures numériques : Retour sur l’expérience ‘Place de la Toile' »
    salle 5, 17h-20h

 

  • Lundi 16 février 2015
    Benjamin Tincq (Ouishare) et Paola Tubaro (University of Greenwich/CNRS)
    « L’économie collaborative : promesses et limites »
    salle 5, 17h-20h

 

  • Lundi 16 mars 2015
    Ksenia Ermoshina (Mines ParisTech) et Rayna Stamboliyska (IRIS Sup’)
    « Internet et militance en Russie »
    salle 5, 17h-20h

 

  • Lundi 18 mai 2015
    Boris Beaude (EPFL)
    « Numérique : changer l’espace, changer la société »
    salle 5, 17h-20h
Share Button

Une Magna Carta (italienne et bientôt européenne) pour Internet

Le 16 juin 2014 Laura Boldrini, présidente de la Chambre des Députés italienne, a décidé de créer une Commission « d’étude sur les droits et devoirs sur Internet » pour marquer le semestre italien de la Présidence du Conseil de l’Union Européenne. La Commission, dirigée par Stefano Rodotà et composée de représentants des forces politiques en présence et de personnalités de la société civile, a eu comme mission de rédiger une ‘Magna Carta’ de l’Internet (je sais, c’est la lubie de Tim Berners-Lee, en bon anglais…).

Lundi 13 octobre la version 1.0 de ce document a été publiée par la Chambre des députés. Pour l’instant, je vous livre la version française du texte, telle quelle (les versions italienne et anglaise sont aussi disponibles) :

View Fullscreen

  1. L’ambition déclarée de délimiter les droits et les libertés fondamentales sur Internet rapproche ce document de la récente Etude 2014 du Conseil d’Etant français. Malheureusement le titre choisi a provoqué quelques malentendu : la presse internationale a cherché à décrédibiliser cette déclaration en l’assimilant à des projet de lobbyistes des industries culturelles telle la « Déclaration des Droits de l’Homme numérique » issue du Forum d’Avignon.
  2. On voit très clairement l’empreinte de Stefano Rodotà, ses thèmes préférés, ses réflexes de militant de la première heure pour les libertés informationnelles ; on retrouve cette approche « historique » de la vie privée envisagée comme quelque chose à protéger sic et simpliciter (ce qui à mon sens fait fi des aspects de négociation collective de la privacy qui deviennent prédominants dans le contexte du numérique).
  3. Points forts : l’alignement de l’Italie sur les positions françaises et européennes sur « l’autodétermination informationnelle » et la neutralité du Net.
  4. Points « meh » : droit à l’oubli envisagé exclusivement comme un droit au déréférencement (quid des dimensions socio-techniques de l’oubli des données, et non seulement du filtrage des contenus par les moteurs de recherche ?), mais surtout toute la partie sur l’anonymat (à mon sens, fruit de compromissions qui ont complètement désamorcé la prise de position forte initialement envisagée : admettre le droit à la communication anonyme et pseudonyme comme vecteur de démocratie et non pas comme simple cible polémique permanente d’une croisade morale, dont nous connaissons par coeur les arguments de prédilection).
  5. Très intéressant, et à développer : le droit à l’éducation.
  6. Absences remarquables : zéro sur le digital labor, zéro peu sur la gouvernementalité algorithmique 1.

A suivre, avec beaucoup d’intérêt parce que prometteur et encore incomplet. Justement, cette déclaration n’est que le kickoff d’un projet plus ambitieux. Dans les prochains jours, les membres des parlements de 27 États membres de l’UE vont se pencher sur ce draft pour le développer.  Une consultation publique, proche de celle déjà lancée en France par le Conseil National du Numérique, va être ouverte le 27 octobre et restera en place pendant quatre mois.

  1. Federico Morando, directeur de la recherche au Nexa Center for Internet & Society du Politecnico de Turin, me signale que le passage sur les « Traitements automatisés » peut être à juste titre considéré comme pertinent à la gouvernementalité algorithmique : « Aucun acte, mesure judiciaire ou administrative, décision de toute manière destiné e à peser significativement sur la sphère personnelle , ne peut être basé uniquement sur un traitement automatisé des données à caractère personnel visant à définir le profil ou la personnalité de la personne concernée. » Je rejoins sa remarque, et j’ajoute que – pour compléter cette section – il serait envisageable de développer trois aspects : 1) étude de comment et dans quelle mesure les algorithmes tendent à remplacer des procédures consensuelles de prise de décision politique ; 2) modalités envisageables de réglementation des algorithmes ;  3) analyse des stratifications, au sein des procédures automatisées de calcul mêmes, de normes morales, culturelles et politiques des concepteurs de algorithmes mêmes.
Share Button

Troll studies: references on trolling, vandalism, incivility online [updated Sept. 2, 2014]

The resource featured on this page is part of my ongoing research in the domain of troll studies. Click here for a selection of my videos, articles, and interviews about trolling (French and English).

Peer reviewed articles, conference proceedings, and dissertations

Anderson, Ashley A., Dominique Brossard, Dietram A. Scheufele, Michael A. Xenos, & Peter Ladwig (2014) The “Nasty Effect:” Online Incivility and Risk Perceptions of Emerging Technologies. Journal of Computer-Mediated Communication, 19 (3): 373‑387.

Bakioğlu, Burcu S. (2012). Negotiating governance in virtual worlds: grief play, hacktivism, and LeakOps in Second Life®. New Review of Hypermedia and Multimedia, 18(4): 237‑59.

Bellanger, Aurélien (2013) Le trolling politique : Comment une pratique du web 2.0 s’est-elle immiscée dans le débat et l’arène politique ?. Master 1 dissertation, Science Politique, Université de Montpellier, France.

Bernstein, Michael S., Andrés Monroy-Hernandez, & Drew Harry (2011) 4chan and /b/: An Analysis of Anonymity and Ephemerality in a Large Online Community. Proceedings of the Fifth International AAAI Conference on Weblogs and Social Media.

Bishop, Jonathan (2014). Representations of ‘trolls’ in mass media communication: A review of media-texts and moral panics relating to ‘internet trolling’. International Journal of Web Based Communities, 10(1): 7‑24.

Bishop, Jonathan (2013) The art of trolling law enforcement: a review and model for implementing ‘flame trolling’ legislation enacted in Great Britain (1981–2012). International Review of Law, Computers & Technology, 27 (3): 301‑318.

Boyd, Michael S. (2014) (New) participatory framework on YouTube? Commenter interaction in US political speeches. Journal of Pragmatics. Online first.

Buckels, Erin E., Trapnell, Paul D. & Delroy L. Paulhu (2014) Trolls just want to have fun, Personality and Individual Differences. Personality and Individual Differences, Online first.

Burroughs, Benjamin (2013) FCJ-165 Obama Trolling: Memes, Salutes and an Agonistic Politics in the 2012 Presidential Election FibreCulture Journal. « Trolls and The Negative Space of the Internet », 22.

Coe, Kevin, Kenski, Kate & Stephen A. Rains (2014) Online and Uncivil? Patterns and Determinants of Incivility in Newspaper Website Comments. Journal of Communication, 64(4): 658–679.

Coleman, E. Gabriella (2012) Phreaks, Hackers, and Trolls: The Politics of Transgression and Spectacle. In Mandiberg, M. (ed.). The Social Media Reader, New York: New York University Press.

Dalton, Eric J. (2013) Impoliteness in Computer Mediated Communication. Master of Arts in Linguistics Thesis, San Diego State University.

De Seta, Gabriele (2013) FCJ-167 Spraying, fishing, looking for trouble: The Chinese Internet and a critical perspective on the concept of trolling. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Donath, Judith S. (1999) Identity and Deception in the Virtual Community. In: Kollock, P. and Smith M. (eds). Communities in Cyberspace, London: Routledge.

Fuller, Glen, Christian McCrea, & Jason Wilson (2013) Troll Theory?, FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Gershon, Ilana (2014) Publish and Be Damned: New Media Publics and Neoliberal Risk. Ethnography, 15(1): 70‑87.

Hardaker, Claire (2013) “Uh. . . . not to be nitpicky…but…the past tense of drag is dragged, not drug.” An overview of trolling strategies. Journal of Language Aggression and Conflict, 1(1): 58–86.

Hardaker, Claire (2010). Trolling in asynchronous computer-mediated communication: From user discussions to academic definitions, Journal of Politeness Research. Language, Behaviour, Culture, 6(2): 215–242.

Herring, Susan, Job-Sluder, Kirk, Scheckler, Rebecca & Sasha Barab (2002) Searching for Safety Online: Managing “Trolling” in a Feminist Forum. The Information Society, 18(5): 371‑384.

Herwig, Jana (2011) The Archive as the Repertoire. Mediated and Embodied Practice on Imageboard 4chan.org. In Friesinger, G.,  Grenzfurthner, J., Ballhausen, T. (eds.) Mind and Matter. Comparative Approaches Toward Complexity. Bielefeld: transcript.

Higgin, Tanner (2013) FCJ-159 /b/lack up: What Trolls Can Teach Us About Race. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Holmes, Steve (2013) FCJ-160 Politics is Serious Business: Jacques Rancière, Griefing, and the Re-Partitioning of the (Non)Sensical. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Jane, Emma A. (2014) Beyond Antifandom: Cheerleading, Textual Hate and New Media Ethics. International Journal of Cultural Studies, 17(2): 175‑190.

Jarvenpaa, Sirkka L., & Ann Majchrzak (2010). Research Commentary–Vigilant Interaction in Knowledge Collaboration: Challenges of Online User Participation Under Ambivalence ». Information Systems Research, 21(4): 773‑84.

Karppi, Tero (2013) FCJ-166 ‘Change name to No One. Like people’s status’ Facebook Trolling and Managing Online Personas. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Kirman, Ben, Lineham, Conor & Shaun Lawson (2012). Exploring Mischief and Mayhem in Social Computing or: How We Learned to Stop Worrying and Love the Trolls ». CHI ’12 Extended Abstracts on Human Factors in Computing Systems, New York: 121‑30.

Knuttila, Lee (2011) User Unknown: 4chan, Anonymity and Contingency. First Monday, 16(10).

Krappitz, Stefan (2012) Troll Culture: A Comprehensive Guide, Diplomarbeit, Neue Medien, Merz Akademie, Hochschule für Gestaltung, Kunst und Medien, Stuttgart.

Lampe, Cliff, Zube, Paul, Lee, Jusil, Park, Chul Hyun, & Erik Johnston (2014) Crowdsourcing civility: A natural experiment examining the effects of distributed moderation in online forums. Government Information Quarterly, 31(2): 317‑326.

Leaver, Tama (2013) FCJ-163 Olympic Trolls: Mainstream Memes and Digital Discord?. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Lu, Shuang-shuang. (2010) A Tentative Study of the Impoliteness Phenomenon in Computer-mediated Communication. Cross-Cultural Communication, 6(1): 92‑107.

MacKinnon, Rebecca, et Ethan Zuckerman (2012) Don’t Feed the Trolls. Index on Censorship, 41(4): 14‑24.

Manivannan, Vyshali (2013) FCJ-158 Tits or GTFO: The logics of misogyny on 4chan’s Random – /b/. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Marwick, Alice & Nicole B. Ellison (2012) “There Isn”t Wifi in Heaven!’ Negotiating Visibility on Facebook Memorial Pages. Journal of Broadcasting & Electronic Media, 56(3): 378‑400.

McCosker, Anthony (2013) FCJ-161 Productive Provocations: Vitriolic Media, Spaces of Protest and Agonistic Outrage in the 2011 England Riots. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

McCosker, Anthony (2014) Trolling as Provocation: YouTube’s Agonistic Publics. Convergence: The International Journal of Research into New Media Technologies, 20(2): 201‑217.

Miller, Vincent (2012) A Crisis of Presence: On-line Culture and Being in the World. Space and Polity, 16 (3): 265‑285.

Milner, Ryan M. (2013) FCJ-156 Hacking the Social: Internet Memes, Identity Antagonism, and the Logic of Lulz. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Mocanu, Delia, Rossi, Luca, Zhang, Qian, Karsai, Marton, & Walter Quattrociocchi (2014) Collective attention in the age of (mis)information. arXiv, 1403.3344.

Morrissey, Lochlan (2010). Trolling is a art: Towards a schematic classification of intention in internet trolling. Griffith Working Papers in Pragmatics and Intercultural Communications, 3(2): 75-82.

Ortega, F. Javier, Troyano, José A. Cruz, Fermín L., Vallejo, Carlos G. & Fernando Enríquez (2012). Propagation of Trust and Distrust for the Detection of Trolls in a Social Network. Computer Networks, 56(12): 2884‑2895.

Pearce, Katy, & Adnan Hajizada (2014) No Laughing Matter Humor as a Means of Dissent in the Digital Era: The Case of Authoritarian Azerbaijan. Demokratizatsiya, 22(1): 67‑85.

Phillips, Whitney (2011) LOLing at Tragedy: Facebook Trolls, Memorial Pages and Resistance to Grief Online. First Monday, 16 (12).

Phillips, Whitney (2011) Meet the Trolls. Index on Censorship, 40(2): 68‑76.

Phillips, Whitney (2013) The House That Fox Built Anonymous, Spectacle, and Cycles of Amplification. Television & New Media, 14(6): 494‑509.

Shachaf, Pnina, & Noriko Hara (2010) Beyond Vandalism: Wikipedia Trolls. Journal of Information Science, 36(3) : 357‑370.

Shaw, Frances (2013) FCJ-157 Still ‘Searching for Safety Online’: collective strategies and discursive resistance to trolling and harassment in a feminist network. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Thacker, Scott, & Mark D. Griffiths (2012) An exploratory study of trolling in online video gaming. International Journal of Cyber Behavior, Psychology and Learning, 2(4), 17-33.

Tkacz, Nathaniel (2013) FCJ-154 Trolls, Peers and the Diagram of Collaboration, FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Whelan, Andrew (2013) FCJ-155 EVEN WITH CRUISE CONTROL YOU STILL HAVE TO STEER: defining trolling to get things done. FibreCulture Journal, « Trolls and The Negative Space of the Internet », 22.

Younus, Arjumand, Qureshi, M. Atif, Saeed, Muhammad, Touheed, Nasir, O’Riordan, Colm & Gabriella Pasi (2014). Election Trolling: Analyzing Sentiment in Tweets During Pakistan Elections 2013. Proceedings of the Companion Publication of the 23rd International Conference on World Wide Web Companion: 411‑412.

Share Button

Wait… Facebook dit what now? Ethics, experiments, and the algorithmic manipulation of everyday life

I’m rushing to finish up a numer of things before flying to Spain for a conference. So Facebook chose the wrong possible moment to do what Facebook does best – manipulate data and algorithms without giving a damn about the well-being of a billion users. Except this time it was not done for profit, but for science. Controversy ensued nonetheless.

Unfortunately, I don’t have time to write a 5,000 word essay about this. Moreover, as an academic I’m fed up with being an accessory to Big Platform storytelling. So, I point you to a couple of nice articles written by colleagues. They all make really valid points, and you should probably read them if you want to overcome the rhetoric conveyed by the press and the TV, which boils down to saying “you should be outraged because during the last 10 years you’ve been more interested in crap stories about Web celebrities, adorable dogs, and violent teenagers that we’ve been feeding you in our technology columns, and you never took the time to realize that the very mission of a medium like Facebook is to manipulate people’s feelings, opinions, and moods”.

So, without further ado, here are the recommended readings. You can use them to outsmart your geeky friends during your Summer outings.

Excerpt: “(…) it’s not clear what the notion that Facebook users’ experience is being “manipulated” really even means, because the Facebook news feed is, and has always been, a completely contrived environment. I hope that people who are concerned about Facebook “manipulating” user experience in support of research realize that Facebook is constantly manipulating its users’ experience. In fact, by definition, every single change Facebook makes to the site alters the user experience, since there simply isn’t any experience to be had on Facebook that isn’t entirely constructed by Facebook. When you log onto Facebook, you’re not seeing a comprehensive list of everything your friends are doing, nor are you seeing a completely random subset of events. In the former case, you would be overwhelmed with information, and in the latter case, you’d get bored of Facebook very quickly. Instead, what you’re presented with is a carefully curated experience that is, from the outset, crafted in such a way as to create a more engaging experience (read: keeps you spending more time on the site, and coming back more often). The items you get to see are determined by a complex and ever-changing algorithm that you make only a partial contribution to (by indicating what you like, what you want hidden, etc.). It has always been this way, and it’s not clear that it could be any other way. So I don’t really understand what people mean when they sarcastically suggest–as Katy Waldman does in her Slate piece–that “Facebook reserves the right to seriously bum you out by cutting all that is positive and beautiful from your news feed”. Where does Waldman think all that positive and beautiful stuff comes from in the first place? Does she think it spontaneously grows wild in her news feed, free from the meddling and unnatural influence of Facebook engineers?”

Excerpt: “I identify this model of control as a Gramscian model of social control: one in which we are effectively micro-nudged into “desired behavior” as a means of societal control. Seduction, rather than fear and coercion are the currency, and as such, they are a lot more effective. (Yes, short of deep totalitarianism, legitimacy, consent and acquiescence are stronger models of control than fear and torture—there are things you cannot do well in a society defined by fear, and running a nicely-oiled capitalist market economy is one of them).

The secret truth of power of broadcast is that while very effective in restricting limits of acceptable public speech, it was never that good at motivating people individually. Political and ad campaigns suffered from having to live with “broad profiles” which never really fit anyone. What’s a soccer mom but a general category that hides great variation? With new mix of big data and powerful, oligopolistic platforms (like Facebook) all that is solved, to some degree. Today, more and more, not only can corporations target you directly, they can model you directly and stealthily. They can figure out answers to questions they have never posed to you, and answers that you do not have any idea they have. Modeling means having answers without making it known you are asking, or having the target know that you know. This is a great information asymmetry, and combined with the behavioral applied science used increasingly by industry, political campaigns and corporations, and the ability to easily conduct random experiments (the A/B test of the said Facebook paper), it is clear that the powerful have increasingly more ways to engineer the public, and this is true for Facebook, this is true for presidential campaigns, this is true for other large actors: big corporations and governments.”

Excerpt: “(…) on the substance of the research, there are still serious questions about the validity of methodological tools used , the interpretation of results, and use of inappropriate constructs. Prestigious and competitive peer-reviewed journals like PNAS are not immune from publishing studies with half-baked analyses. Pre-publication peer review (as this study went through) is important for serving as a check against faulty or improper claims, but post-publication peer review of scrutiny from the scientific community—and ideally replication—is an essential part of scientific research. Publishing in PNAS implies the authors were seeking both a wider audience and a heightened level of scrutiny than publishing this paper in a less prominent outlet. To be clear: this study is not without its flaws, but these debates, in of themselves, should not be taken as evidence that the study is irreconcilably flawed. If the bar for publication is anticipating every potential objection or addressing every methodological limitation, there would be precious little scholarship for us to discuss. Debates about the constructs, methods, results, and interpretations of a study are crucial for synthesizing research across disciplines and increasing the quality of subsequent research.

Third, I want to move to the issue of epistemology and framing. There is a profound disconnect in how we talk about the ways of knowing how systems like Facebook work and the ways of knowing how people behave. As users, we expect these systems to be responsive, efficient, and useful and so companies employ thousands of engineers, product managers, and usability experts to create seamless experiences.  These user experiences require diverse and iterative methods, which include A/B testing to compare users’ preferences for one design over another based on how they behave. These tests are pervasive, active, and on-going across every conceivable online and offline environment from couponing to product recommendations. Creating experiences that are “pleasing”, “intuitive”, “exciting”, “overwhelming”, or “surprising” reflects the fundamentally psychological nature of this work: every A/B test is a psych experiment.”

[UPDATE 29.06.2014] Just when folks in the academic community were finally coming back to their senses, the first author of the Facebook study issued an “apology” that will go down in the annals of douchebaggerdom.

“The reason we did this research is because we care about the emotional impact of Facebook and the people that use our product. We felt that it was important to investigate the common worry that seeing friends post positive content leads to people feeling negative or left out. At the same time, we were concerned that exposure to friends’ negativity might lead people to avoid visiting Facebook. We didn’t clearly state our motivations in the paper. (…) And we found the exact opposite to what was then the conventional wisdom: Seeing a certain kind of emotion (positive) encourages it rather than suppresses is.”

[Shakespearean aside: The key sentence here is “we were concerned that exposure to friends’ negativity might lead people to avoid visiting Facebook”: so this study demonstrates that if Facebook just suppresses every hint of negativity and forcefeeds users with sugar-coated unicorns, people won’t develop some kind of “diabetes of the soul”. ]

“Nobody’s posts were « hidden, » they just didn’t show up on some loads of Feed.”

[Shakespearean aside: Why, that reassur… wait a minute! Isn’t “not showing” synonymous with “hiding”?]

Having written and designed this experiment myself, I can tell you that our goal was never to upset anyone. I can understand why some people have concerns about it, and my coauthors and I are very sorry for the way the paper described the research and any anxiety it caused.

[Shakespearean aside: Wouldn’t want to overinterpret that, but he seems to say he’s sorry for the anxieties caused by the publication of the paper, not for the anxieties allegedly caused by the experiment itself…]

Share Button

[Slides] Séminaire EHESS ‘Le mouvement open data : histoire et controverses’ Simon Chignard & Samuel Goëta

Pour la dernière séance de l’année de mon enseignement EHESS Étudier les cultures du numérique : approches théoriques et empiriques, nous avons eu le plaisir d’accueillir Simon Chignard (auteur de l’ouvrage Open Data, Fyp Editions, 2012 et editeur de data.gouv.fr, plateforme ouverte d’Etalab) et Samuel Goëta (doctorant Telecom Paristech et co-fondateur d’Open Knowledge Foundation France). Le séminaire, centré sur les données ouvertes, a eu lieu le lundi 16 juin 2014, à l’EHESS, Paris. Voilà les slides :

Les controverses de l’open data au regard de l’histoire du mouvement (Simon Chignard & Samuel Goëta)

Titre : Les controverses de l’open data au regard de l’histoire du mouvement

L’open data ou ouverture des données désigne la mise à disposition de manière publique, gratuite et proactive de données que chacun peut librement consulter, modifier et utiliser. Le G8 de Lough Erne en 2013 a acté que l’open data devait devenir la pratique par défaut des administrations des pays signataires. Alors que l’ouverture des données semble devenir une priorité des gouvernements, comment le mouvement open data est parvenu à s’imposer dans le débat public comme une revendication essentielle de transparence, d’innovation et de modernisation des administrations ? Quelles sont ses racines profondes ? Quels réseaux d’acteurs ont été mobilisé pour aboutir à la stabilisation progressive des définitions et des pratiques de l’ouverture de données ? Au regard de cette histoire ancienne, il s’agit aussi de comprendre comment les contradictions du mouvement continuent d’influencer les controverses actuelles autour de l’ouverture des données. Nous discuterons les débats suivants en particulier : l’anonymisation des données, les risques d’enclosures, les réticences administratives et la difficile participation des citoyens à la réutilisation des données.


=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=

Slides des séances passées :

• 18 nov 2013
Antonio A. Casilli (Telecom ParisTech, EHESS)
Le rôle des visualisations de données dans la recherche sur les cultures numériques

• 16 déc 2013
Anne Dalsuet (philosophe, auteure de ‘T’es sur Facebook’, Flammarion 2013), Stéphane Vial (Université de Nîmes)
Amitié et manifestation d’autrui : pour une philosophie des réseaux sociaux numériques

• 20 janv 2014
Nicolas Colin (The Family)
L’Âge de la multitude : Enjeux économiques et de gouvernance après la révolution numérique   

• 17 févr 2014
Estelle Aubouin (CELSA), Sylvain Abel (ISCOM)
Le web éphémère : de 4chan à Snapchat

• 17 mars 2014

Paola Tubaro (U. of Greenwich, CNRS), Antonio A. Casilli (Telecom ParisTech, EHESS)
Web et privacy : le renoncement à la vie privée n’a jamais eu lieu

• 28 avril 2014

Nicolas Auray (Telecom ParisTech, EHESS)
Débattre de l’officieux. Une contradiction interne au hackérisme

• 19 mai 2014

Louise Merzeau (Paris Ouest Nanterre La Défense)
Présence numérique : traces, éditorialisation, mémoire

=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=

Share Button

Next Page →