Pour avoir utilisé de l’IA, Clair Obscur: Expedition 33 perd un titre de “Jeu de l’année” : ce que ça dit (vraiment) de l’industrie
Les Indie Game Awards ont retiré deux récompenses majeures au RPG français Clair Obscur: Expedition 33 après la confirmation d’un usage d’outils d’IA générative pendant la production.
Une décision symbolique, qui relance un débat très concret : où commence l’IA “interdite”, et comment l’industrie va devoir tracer des limites claires.

Crédit photo : Ara479 (CC BY-SA 4.0) – Wikimedia Commons.
Source
·
Licence
Une récompense “retirée” : de quoi parle-t-on exactement ?
L’info, telle qu’elle remonte depuis quelques jours, est assez simple sur le papier : les Indie Game Awards 2025 (un événement organisé sous l’égide de Six One Indie)
ont annoncé le retrait de deux trophées attribués à Clair Obscur: Expedition 33 : Game of the Year (jeu de l’année) et Debut Game (meilleur premier jeu).
La raison invoquée par l’organisation : l’utilisation d’outils d’IA générative pendant la production, ce qui contrevient à leurs règles de nomination.
Le point important, ici, c’est que l’affaire ne repose pas sur une “rumeur” lointaine : selon plusieurs reprises médias, le studio aurait d’abord indiqué lors de son dossier de candidature
qu’aucun outil d’IA générative n’avait été utilisé… avant que l’inverse ne soit confirmé le jour même de la cérémonie. Résultat : disqualification et redistribution des titres.
Dans la foulée, les IGAs ont réattribué les prix : Blue Prince récupère le “Game of the Year”, et Sorry We’re Closed celui de “Debut Game”.
Là encore, l’organisation insiste sur une ligne très stricte : peu importe que les éléments IA aient été corrigés ou remplacés après coup, l’usage d’IA pendant le développement suffit à rendre un jeu inéligible.
Pourquoi cette décision fait autant de bruit ?
Parce qu’on est au croisement de trois sujets explosifs : l’IA générative, la crédibilité des prix, et la question “qu’est-ce qu’un jeu indie, au fond ?”.
Et Clair Obscur: Expedition 33 coche les trois cases.
D’un côté, le jeu est décrit comme un grand succès “made in France”, porté par Sandfall Interactive, avec une saison des récompenses très visible.
De l’autre, certains observateurs pointent que la catégorie “indie” est parfois floue : un studio peut rester indépendant tout en travaillant avec un éditeur,
en disposant d’un budget conséquent, ou en ayant une ambition “AA/AAA”. Cette ambiguïté nourrit régulièrement des débats… et, ici, elle a rendu la controverse encore plus virale.
Mais l’élément déclencheur, c’est surtout l’IA : dans les industries créatives, l’IA générative n’est plus seulement un “outil”, c’est un sujet de confiance.
Une partie du public (et beaucoup de professionnels) y voit un risque : baisse de valeur du travail artistique, dérives sur le droit d’auteur, ou remplacement progressif de métiers créatifs.
À l’inverse, d’autres défendent un usage encadré, pragmatique, “comme on utilise déjà des moteurs procéduraux, des assets store, des outils de retouche, etc.”.
Résultat : la moindre mention d’IA agit comme une étincelle.

Crédit : image CC0 (domaine public) via Wikimedia Commons.
Source
Le nerf de la guerre : “utilisation d’IA” veut dire quoi, concrètement ?
Le diable est dans les détails : tout le monde prononce “IA”, mais derrière, on mélange souvent des réalités très différentes.
Dans le cas d’Expedition 33, plusieurs articles évoquent des textures qui auraient semblé générées (ou assistées) par IA,
repérées par des joueurs peu après la sortie, puis remplacées via une mise à jour. L’idée générale : on ne parle pas d’un jeu “entièrement fait par IA”,
mais de quelques éléments (probablement secondaires) qui ont déclenché l’attention.
Là où ça se complique, c’est qu’une règle d’éligibilité “zéro IA” ne fait pas forcément la différence entre :
- IA en production finale (assets livrés dans le jeu, visuels, textures, voix, etc.) ;
- IA en prototypage (concept art temporaire, placeholder visuel, tests de pipeline) ;
- IA “assistive” (upscaling, nettoyage audio, outils de retouche, génération d’idées, etc.) ;
- IA côté marketing (bannières, posts, trailers, thumbnails) qui ne touchent pas le jeu lui-même.
Or, dans la tête de beaucoup de joueurs, tout ça n’a pas la même gravité. Un “placeholder texture” remplacé avant que la majorité du public ne le voie,
ce n’est pas perçu comme un doublage entier généré, ni comme un artbook complet produit à la chaîne.
Mais du point de vue d’un prix qui veut envoyer un signal fort, la logique peut être “simple” : si c’est utilisé, même un peu, c’est inéligible.
Pourquoi les Indie Game Awards adoptent une ligne aussi dure
Les IGAs ont un positionnement particulier : c’est une cérémonie “awards-only” orientée création et équipes, diffusée en ligne,
avec l’envie de mettre les développeurs au centre (et pas seulement le marketing).
Dans ce cadre, il n’est pas étonnant de voir émerger des règles plus idéologiques que sur de grosses cérémonies grand public.
L’IA générative est justement devenue l’un des sujets où les “petits” événements veulent parfois montrer l’exemple, quitte à être inflexibles.
Leur argument principal tient en deux mots : cohérence et confiance.
Cohérence, parce que si tu annonces des critères “sans IA”, tu dois les appliquer même quand le jeu est excellent.
Confiance, parce que les prix vivent d’un contrat implicite : les candidatures sont censées être sincères.
Si l’organisation estime qu’une déclaration initiale était fausse ou incomplète, elle se retrouve presque obligée de trancher fort,
sinon la règle devient une “option”.
Le message envoyé est très clair : l’IA n’est pas un détail technique, c’est un sujet éthique et artistique qui, à leurs yeux,
doit être assumé dès la nomination. Et même si le studio affirme que la version actuelle ne contient plus d’éléments générés par IA,
la décision des IGAs suggère qu’ils jugent le process autant que le produit final.
Le “cas Expedition 33” met aussi en lumière le problème des zones grises
Si tu prends du recul, cette histoire ressemble à un crash test : l’industrie est en train d’inventer ses règles en direct.
Et on voit bien pourquoi c’est compliqué.
D’un côté, de plus en plus de studios testent des outils génératifs “par curiosité”, “pour gagner du temps”, ou “pour prototyper” :
variations de textures, moodboards, premiers jets de prompts pour un univers, etc.
De l’autre, l’acceptabilité sociale n’est pas stable : un studio peut considérer que c’est un simple test interne,
tandis que le public peut y voir une trahison du travail artistique.
Le problème, c’est que sans cadre commun, on retombe vite sur des discussions sans fin :
“Est-ce que l’IA a remplacé un artiste ?”, “Est-ce que c’était juste du placeholder ?”, “Est-ce que ça a été livré dans le build final ?”,
“Est-ce que l’outil a été entraîné sur des œuvres protégées ?”, etc.
Et à la fin, ce n’est pas toujours la qualité du jeu qui est jugée, mais la qualité de la communication.
Conséquences : pour le studio, pour les prix… et pour les joueurs
Pour Sandfall Interactive, l’impact le plus visible est symbolique : perdre un titre de “jeu de l’année” fait évidemment tache,
surtout en plein moment où un jeu est sous les projecteurs.
Mais l’effet le plus durable pourrait être ailleurs : dans la manière dont les studios vont gérer la transparence, les audits, et les “preuves” d’absence d’IA.
Pour les cérémonies et jurys, la décision des IGAs crée un précédent : si tu annonces “zéro IA”, il faut être capable de le vérifier,
et de gérer les révélations tardives. Sinon, tu te retrouves à arbitrer au cas par cas, donc à créer de nouvelles polémiques.
En clair : plus l’IA se banalise, plus les prix vont devoir choisir entre deux stratégies :
1) accepter l’IA avec un cadre (et éventuellement des catégories dédiées), ou 2) l’interdire strictement (au risque de disqualifier des jeux majeurs).
Pour les joueurs, c’est surtout une piqûre de rappel : les récompenses ne sont pas une “vérité absolue”.
Elles reflètent des critères, une époque, des arbitrages. Ce qui est frappant ici, c’est qu’un même jeu peut être célébré d’un côté,
puis sanctionné de l’autre, non pas pour ses mécaniques, son scénario ou sa direction artistique… mais pour ses outils de production.
Et ça, c’est très 2025.
La suite : vers des labels, des déclarations standardisées, et des “périmètres” IA
Le scénario le plus probable, c’est qu’on se dirige vers une normalisation.
Un peu comme il existe déjà des règles sur l’éligibilité (dates de sortie, plateformes, financement, etc.), on pourrait voir apparaître des formulaires plus précis :
IA utilisée où ? quand ? pour quoi ? livré dans le produit final ou non ?
On pourrait aussi voir émerger des labels — pas forcément “anti-IA”, mais “transparent IA” :
l’idée ne serait pas de faire la police, mais de permettre au public (et aux jurys) de juger avec des informations claires.
Parce qu’au fond, le cœur du problème dans cette histoire n’est pas seulement l’IA :
c’est l’écart entre ce qui est déclaré au moment de la nomination… et ce qui est reconnu ensuite.
Et tant que l’industrie ne fixe pas des définitions partagées, il y aura d’autres cas similaires.
Aujourd’hui, c’est un RPG français qui sert d’exemple. Demain, ce sera peut-être un jeu avec des voix IA, un autre avec du concept art généré,
ou un troisième où l’IA n’a été utilisée “que” pour un écran de menu. Les frontières bougent vite, et les règles devront bouger tout aussi vite.












