Février 2021 - Veille collaborative de l'association

sommaire
action associative

Retrouvez chaque mois la synthèse éditorialisée de la veille collaborative de l'association Les Designers Ethiques.

Cette synthèse est issue du Slack de l'association où nous partageons les informations relatives à la responsabilité dans les domaines du design, de la conception et du numérique.

Ce mois-ci, nous souhaitions parler d'automatisation avec Kevin Richard, rédacteur en chef de ce numéro. Bienvenue à lui !

Une histoire de l'automatisation dans le design

"Automation of design"- Lukasz Lysakowski

Nous aurions tort de croire que nos métiers du design échappent à l'automatisation et à son corollaire, l'intelligence artificielle. Il est même probable que nous nous voilions la face à ce sujet, tant la communauté ne s'est jamais emparé de la question. Or, toutes les composantes du design sont aujourd'hui touchées par les évolutions technologiques, dont l'intelligence artificielle. À commencer par le content design: les quelques phrases que l'auteur de cet article écrit ici, dans Word, sont suggérées par l'auto-complétion. Mais, comme nous allons le voir, ça ne date pas d'hier.

En s’appuyant sur l’évolution de l’impression de Gutenberg à nos jours, et sur le lien de parenté entre typographie et design, l’auteur de cet article explore quelques idées reçues des designers sur leur propre métier, à commencer par le fait que celui-ci est une profession hautement qualifiée, et par conséquent à l’abri d’une forme d’automatisation qui mettrait en danger des emplois.

"Currently demonstrated technologies could automate 45% of the activities people are paid to perform" - Mac Kinsley

L’article détaille différentes manières d’exploiter l’IA dans le design, et conclut sur la nécessité de penser ce métier sur la base des interactions humaines, et pas seulement comme un processus de production.

“As designers, if we want to maintain our careers in interactive design or any type of practice, we need to value input as much as we value output.”

L'apport de l'intelligence artificielle

"A robot wrote this entire article. Are you scared yet, human?" - The Guardian

Tout ceci reste de l’ordre de la théorie, me direz-vous. Connaissez-vous GPT-3, développé par OpenAI ? Il s’agit aujourd’hui du plus gros modèle de langage naturel entraîné au monde, et il devient difficile de distinguer un texte écrit par GPT-3 d’un texte rédigé par un·e humain·e. Pour preuve, n’hésitez pas à consulter cet article écrit par GPT-3 pour The Guardian, et qui nous démontre que les robots viennent en paix parmi nous...

"DALL-E" - OpenAI

Si vous avez été bluffé par GPT-3, sachez qu’il existe la même chose en design produit et en illustration. Il s’appelle DALL-E (va falloir arrêter avec les références cinématographiques HAL, WALL.E, etc.) et donc… c’est bluffant (bis). A partir d’un bout de texte, le programme dessine à la volée sa représentation graphique. N'hésitez pas à tester par vous-mêmes..

Les problèmes éthiques auxquels nous sommes confrontés

"For some reason, I'm covered in blood: GPT-3 contains disturbing bias against Muslims" - Dave Gershgorn

Aussi impressionnantes que soient les capacités de ces outils, il n’est pas possible d’ignorer les enjeux éthiques liés à leur mise sur le marché. À tel point que OpenAI, la société qui a créé GPT-3, a elle-même communiqué dès juillet 2020 en faisant état de biais inquiétants dans leur modèle:

“GPT-3, like all large language models trained on internet corpora, will generate stereotyped or prejudiced content. The model has the propensity to retain and magnify biases it inherited from any part of its training, from the datasets we selected to the training techniques we chose. This is concerning, since model bias could harm people in the relevant groups in different ways by entrenching existing stereotypes and producing demeaning portrayals amongst other potential harms.”

Une étude scientifique récente a confirmé que le modèle associait de manière particulièrement ciblée un lexique de violence au vocabulaire lié à l’Islam.

“In more than 60% of cases documented by researchers, GPT-3 created sentences associating Muslims with shooting, bombs, murder, and violence.”

Pourtant, GPT-3 est opérationnel en bêta-test, et déjà acheté par certaines compagnies, dont Microsoft n’est pas des moindres. La question reste donc ouverte : est-il acceptable que des entreprises technologiques puissent faire le choix par elle-même de commercialiser ou non des outils pouvant potentiellement répandre et encourager des contenus haineux, ou dommageables à certains segments de la population ?

Pour aller plus loin

Un autre exemple des enjeux éthiques posés par l’IA dans le secteur de l’éducation, ou comment se perdre dans un dédale kafkaïen en tentant de solutionner ces problématiques.

Timnit Gebru, chercheuse récemment remerciée par l’équipe de recherche en éthique appliquée à l’IA de Google, explique ici le paradoxe ayant conduit à son éviction, et l’impossibilité d’aborder ces enjeux au sein de l’entreprise.

Insolite

Et enfin, lisez cet article stupéfiant écrit pour la CHI Conference de 2013, où des robots du futur remercient les chercheurs de leur avoir permis d’asservir les humains!

Alors, que préférez-vous, les robots amicaux de GPT-3 ou les chercheurs donnant voix aux robots dominateurs...

Kevin Richard, rédacteur en chef
Photographie de Kevin Richard

Merci à Kevin d'avoir accepté de rédiger cette veille ! Petite présentation en deux petites bulles...

  • Kevin est senior designer & UX strategist chez Pictet ;
  • Il travaille principalement sur des services internes, et essaie d’incorporer une approche mêlant systémique & complexité à l’IT et au business.
projet participatif

Cette veille est un projet participatif. Vous souhaitez participer ? Rejoignez-nous sur slack.designersethiques.org, canal #veille

Découvrez les éditions précédentes

Sauf mention contraire, les contenus de ce site sont mis à disposition selon les termes de la licence Creative Commons Attribution 4.0 International.

Venez échanger avec nous sur http://slack.designersethiques.org, canal #veille.

Coordinatrice de l'action : Anne Nicole.