Comment pouvons-nous changer cette triste réalité

Un après-midi, alors que je faisais défiler mon application préférée, TikTok, une vidéo d’un utilisateur handicapé dansant sur une chanson tendance est apparue sur ma page For You. En lisant certains des milliers de commentaires laissés sous la vidéo de l’utilisateur, mon sang a bouilli devant le harcèlement insensé et la rhétorique dénigrante ciblant le handicap de l’utilisateur. Les médias sociaux n’ont servi qu’à renforcer l’hostilité des commentateurs : derrière la lâcheté de leurs comptes TikTok anonymes et privés, ces intimidateurs sur Internet étaient protégés de toute forme de représailles pour leurs actions. Après avoir lutté sans relâche contre ce capacitisme, l’utilisateur a finalement désactivé sa section de commentaires.

Le capacitisme, tel que défini par le Centre pour les droits des personnes handicapées, « est un ensemble de croyances ou de pratiques qui dévalorisent et discriminent les personnes atteintes de handicaps physiques, intellectuels ou psychiatriques et reposent souvent sur l’hypothèse que les personnes handicapées doivent être «fixées» dans un forme ou l’autre. Capabilité numérique c’est lorsque cette discrimination, ce préjugé ou cette dévalorisation des personnes handicapées se produit en ligne, que ce soit sur des applications de médias sociaux, des forums en ligne ou des sites Web. Le capacitisme numérique s’est aggravé depuis l’explosion de l’ère numérique au tournant du siècle, s’étendant bien au-delà de la cyberintimidation des utilisateurs de médias sociaux handicapés. Les plateformes numériques inaccessibles ont entravé la capacité de nombreuses personnes à participer équitablement aux ressources en ligne, ce qui a entraîné des milliers de poursuites contre des entreprises telles que Netflix et Five Guys qui n’ont pas rendu leur site Web accessible à tous leurs clients.

Les plateformes de médias sociaux ont considérablement exacerbé l’inégalité à laquelle sont confrontés les utilisateurs handicapés en structurant par inadvertance leurs algorithmes pour imiter les biais implicites détenus par les développeurs. Par exemple, il a été découvert qu’un algorithme de Twitter qui recadrait les images pour se concentrer sur les visages exerçait activement un biais implicite, recadrant sélectivement les visages des personnes handicapées, des personnes âgées, des personnes non blanches et des utilisateurs qui portaient des couvre-chefs. TikTok a également admis avoir utilisé un algorithme qui supprimait le contenu qu’ils jugeaient “vulnérable à la cyberintimidation” – c’est-à-dire “les personnes handicapées ou les personnes ayant des problèmes faciaux tels que des taches de naissance, un léger strabisme, etc.” — plutôt que de punir ou d’interdire les utilisateurs qui ont cyberintimidé ces créateurs.

Leave a Comment