Des demandeurs utilisent un robot conversationnel comme ChatGPT pour rédiger leur historique de persécution

 

Des commissaires à l’immigration s’inquiètent de l’apparition de demandes d’asiles au Canada rédigées par l’intelligence artificielle (IA). Des demandeurs utilisent un robot conversationnel comme ChatGPT pour rédiger un historique de persécution à leur place ou pour détailler les dangers qui existent dans leur pays d’origine. Une pratique jugée préoccupante, car dans au moins un cas, le logiciel est soupçonné d’avoir fabriqué de fausses preuves pour favoriser l’obtention du statut de réfugié.

C’est ce qui ressort d’une série de courriels internes rédigés par des fonctionnaires fédéraux l’automne dernier et obtenus par La Presse de Montréal en vertu de la Loi sur l’accès à l’information.

« L’intelligence artificielle devient une plus grande préoccupation », lit-on dans des notes de réunion entre gestionnaires de la Commission de l’immigration et du statut de réfugié (CISR), tribunal administratif chargé d’entendre les demandes d’asile au Canada.

La note évoque la crainte qu’un logiciel «  écrive une histoire » au sujet d’un demandeur.

Pour chacune des dizaines de milliers de demandes d’asile présentées au Canada chaque année, un commissaire de la CISR doit étudier la preuve et déterminer si la personne devant lui a vraiment raison de craindre d’être persécutée dans son pays d’origine en raison de sa race, de sa religion, de sa nationalité, de ses opinions politiques ou de son appartenance à un groupe social. Si c’est le cas, et que l’histoire racontée par le demandeur est jugée crédible, on lui accorde le statut de réfugié et lui ouvre les portes du Canada.

Le système permet aux réfugiés authentiques de refaire leur vie loin de la guerre, de la dictature, des gangs ou des zélotes religieux qu’ils ont laissés derrière. Mais il arrive aussi que de faux réfugiés tentent d’être admis au pays sous de faux prétextes. Certains commissaires craignent que les nouveaux outils technologiques leur facilitent la tâche.

Des « similitudes frappantes »

Dans le cadre du processus, chaque personne qui veut obtenir le statut de réfugié doit d’abord remplir un formulaire dans lequel elle détaille son parcours et les raisons qui l’amènent à chercher refuge au Canada.

L’automne dernier, les gestionnaires de la CISR ont rapporté quelques cas de récits individuels dans ces formulaires qui semblaient avoir été rédigés par un robot conversationnel à la place du demandeur.

« La région de l’Ouest nous a rapporté six dossiers dans lesquels ils ont détecté l’utilisation de ChatGPT. Nous aimerions avoir une meilleure compréhension de l’ampleur de ce problème potentiel, et des cas détectés », écrivait Me Sarah Côté, commissaire coordonnatrice établie à Montréal, dans un courriel envoyé à ses collègues en novembre dernier, qui a ensuite suscité plusieurs réponses.

Les exemples discutés dans les échanges obtenus par La Presse incluaient un cas où un commissaire avait détecté de nombreux formulaires détaillant le parcours de différents demandeurs qui présentaient des « similitudes frappantes » et un style particulier.

Comme si un logiciel avait fourni la même réponse à plusieurs personnes qui lui demandaient de rédiger un récit convaincant basé sur les dangers qui peuvent exister dans un certain pays.

Dans d’autres cas, c’était le style de rédaction fleuri et ampoulé, très différent des autres documents remplis par le demandeur, qui laissait croire aux commissaires que le récit du parcours du demandeur n’avait pas été rédigé par lui-même et qui les amenait à se questionner sur son authenticité.

Des hyperliens inventés

Dans un autre cas cité dans les échanges, un avocat qui représentait un demandeur d’asile originaire du Rwanda a avoué à un commissaire qu’il avait demandé à ChatGPT de rédiger un document général sur les risques d’embrigadement forcé des jeunes vulnérables dans les rangs de l’armée rwandaise.

Le document soumis en preuve faisait référence à plusieurs sources officielles qui étaient censées confirmer les craintes du demandeur à cet effet. Seul problème, aucun des hyperliens cités en preuve et qui devaient mener aux sources officielles n’était fonctionnel.

Le commissaire chargé du dossier « croit que ChatGPT a fabriqué les liens », lit-on dans un des courriels divulgués par la CISR à La Presse.

En fait, ChatGPT simule des hyperliens vers des sources crédibles (par exemple Human Rights Watch), mais les articles n’existent pas réellement. Ce sont seulement des combinaisons ou approximations de vrais liens.

 

Extrait de: Source et auteur

Suisse shared items on The Old Reader (RSS)

Et vous, qu'en pensez vous ?

Poster un commentaire

Votre commentaire est susceptible d'être modéré, nous vous prions d'être patients.

* Ces champs sont obligatoires

Avertissement! Seuls les commentaires signés par leurs auteurs sont admis, sauf exceptions demandées auprès des Observateurs.ch pour des raisons personnelles ou professionnelles. Les commentaires sont en principe modérés. Toutefois, étant donné le nombre très considérable et en progression fulgurante des commentaires (259'163 commentaires retenus et 79'280 articles publiés, chiffres au 1 décembre 2020), un travail de modération complet et exhaustif est totalement impensable. Notre site invite, par conséquent, les commentateurs à ne pas transgresser les règles élémentaires en vigueur et à se conformer à la loi afin d’éviter tout recours en justice. Le site n’est pas responsable de propos condamnables par la loi et fournira, en cas de demande et dans la mesure du possible, les éléments nécessaires à l’identification des auteurs faisant l’objet d’une procédure judiciaire. Les commentaires n’engagent que leurs auteurs. Le site se réserve, par ailleurs, le droit de supprimer tout commentaire qu’il repérerait comme anonyme et invite plus généralement les commentateurs à s’en tenir à des propos acceptables et non condamnables.

Entrez les deux mots ci-dessous (séparés par un espace). Si vous n'arrivez pas à lire les mots vous pouvez afficher une nouvelle image.