Figma suspend sa nouvelle fonctionnalité d’IA après la controverse Apple

Accueil - Technologies et Avenirs - Intelligence Artificielle - Figma suspend sa nouvelle fonctionnalité d’IA après la controverse Apple
Innovationsfr
juillet 6, 2024

Figma suspend sa nouvelle fonctionnalité d’IA après la controverse Apple

Figma, le célèbre outil de conception d'interfaces collaboratif, traverse une zone de turbulences. La startup, rachetée par Adobe en 2022 pour 20 milliards de dollars, vient de suspendre temporairement sa toute nouvelle fonctionnalité "Make Design" à peine une semaine après son lancement en bêta lors de sa conférence annuelle Config. En cause : des accusations de plagiat de l'application Météo d'Apple qui ont enflammé la twittosphère.

Make Design : quand l'IA génère la discorde

Présentée en grande pompe par Dylan Field, le charismatique PDG et co-fondateur de Figma, "Make Design" promettait de révolutionner le processus créatif des designers en générant automatiquement des maquettes d'interfaces à partir de simples instructions textuelles. Une prouesse permise par l'intégration des dernières avancées en matière d'intelligence artificielle générative, la technologie derrière des outils comme DALL-E ou Midjourney dans la synthèse d'images.

Mais rapidement, des internautes se sont étranglés devant les exemples proposés par Figma, relevant une ressemblance troublante avec l'application Météo installée par défaut sur les iPhone. Mêmes infographies, même code couleur, même disposition des éléments… Difficile de nier la similitude, comme l'ont souligné de nombreux professionnels du design sur Twitter.

C'est une copie quasi-conforme de l'app Météo d'Apple ! On dirait que l'IA de Figma a juste ingéré l'interface pour la recracher.

– Un designer UX indigné sur Twitter

Figma joue la carte de la transparence

Face à la polémique, Figma a rapidement réagi en annonçant la suspension de "Make Design" le temps de tirer les choses au clair. Dans une note de blog publiée le 6 juillet, Dylan Field reconnaît que "certains exemples générés semblent avoir été lourdement influencés par des designs existants" et s'engage à faire toute la lumière sur les jeux de données utilisés pour entraîner les modèles d'IA.

Le patron promet également de mettre en place des garde-fous éthiques pour éviter de futures dérives et collaborer étroitement avec la communauté des designers pour définir les bonnes pratiques de l'IA générative appliquée au design :

Nous sommes déterminés à développer cette technologie de manière responsable et éthique. Cela va demander du temps et de la concertation, mais c'est un défi que nous sommes prêts à relever.

– Dylan Field, CEO de Figma

L'IA générative en plein questionnement éthique

Au delà du cas Figma, cette polémique illustre les questionnements éthiques que soulève l'essor de l'IA générative dans des domaines créatifs comme le design. Parce que ces modèles sont entraînés sur des données existantes, le risque de plagiat et de violation de propriété intellectuelle est bien réel.

Mais ces technologies offrent aussi des perspectives enthousiasmantes pour "augmenter" la créativité humaine et démocratiser la création. À condition d'établir un cadre clair et des bonnes pratiques comme la citation des sources, l'utilisation de contenus sous licence libre ou la mise en place de filtres pour éviter certaines dérives (contenu haineux, désinformation…).

Des réflexions sont en cours, notamment au sein de groupes comme l'Institute for Ethics in Artificial Intelligence, pour définir une IA éthique et responsable. Car si la technologie évolue à une vitesse folle, notre boussole morale doit rester le cap !

Partager:

Ajouter Un Commentaire

Chercher

Beauty and lifestyle influencer

Follow my journey on all Social Media channels

Alienum phaedrum torquatos nec eu, vis detraxit periculis ex, nihilmei. Mei an pericula euripidis, hinc partem ei est.
facebook
5M+
Facebook followers
Follow Me
youtube
4.6M+
Youtube Subscribers
Subscribe Me
tiktok
7M+
Tiktok Followers
Follow Me
instagram
3.4M+
Instagram Followers
Follow Me