Le Secrétariat de l'Organisation mondiale

Le Secrétariat de l’Organisation mondiale des douanes (OMD) anticipe que denombreusesadministrations douanières, ainsi que les acteurs publics et privés du commerce international,intégreront progressivement l’IA générative dans un avenir proche. Cette hypothèse estétayée par plusieurs observations :

(i) la diversité des applications possibles à partir de l’IAgénérative qui viendront compléter les systèmes d’IA déjà bien établis dans le secteur public

(ii) l’interface intuitive rendue possible par l’interaction avec l’IA en langage naturel, qui élargitle champ des utilisateurs finaux ;

(iii) la diffusion extrêmement rapide de cette technologiedans la société depuis le lancement d’un agent conversationnel en novembre 2022 ; et (iv) laréaction des gouvernements et des organisations qui travaillent sur la confiance à instaurerdans l’IA, par exemple le processus d’Hiroshima du G71 , la loi sur l’IA de l’Union européenne2 ,le décret sur l’IA des États-Unis3 et le dernier sommet sur la sécurité de l’IA organisé au

Royaume-Uni4 .

De par sa capacité à générer du texte, des images, des vidéos et du son via desrequêtes exprimées en langage naturel, l’IA générative devrait fortement affecter les activitésintellectuelles. Cette technologie peut conduire à la transformation profonde d’emploisexistants et à la création de nouveaux emplois. Cette transformation s’inscrirait dans unetrajectoire déjà observée pour les technologies émergentes5 .Il est donc important que la communauté douanière se saisisse des débats sur l’impactde l’IA générative dans les administrations publiques. L’objectif premier de cette note est deproposer une perspective équilibrée sur l’IA générative, les bénéfices de ses applications

1 En 2023, les pays du G7 ont lancé le processus d’Hiroshima sur l’IA visant à établir des

recommandations mondiales pour l’IA de confiance, mais appliquées à l’IA dite “avancée” (typiquement l’IA

générative)

2 L’Union européenne (UE) a récemment pris en compte des considérations spécifiques à l’IAgénérative dans le AI ACT (step-closer-to-the-first-rules-on-artificial-intelligence). En avril 2023, l’Italie a bloqué l’accès à ChatGPT pour

non-respect présumé de la réglementation sur la confidentialité des données, avant de le rétablir

3 En octobre 2023, les États-Unis ont publié un document complet englobant de nombreux sujets liés àl’IA, y compris l’IA générative, définissant des lignes directrices politiques et annonçant les travaux à venir desagences fédérales dans le domaine de l’IA

En mai 2023, le gouvernement américain a lancé un groupe de travail sur les limites et les risquesassociés à l’IA générative 

4.Eloundou, T., Manning, S., Mishkin, P. et Rock, D. (2023). Gpts are gpts : An early look at the labor

market impact potential of large language models. arXiv preprint arXiv:2303.10130.

1potentielles mais aussi les risques et les limites actuels qui lui sont spécifiques. La présente

note vise donc à favoriser des discussions éclairées au sein des administrations douanières,

de la communauté élargie de l’OMD et avec les partenaires techniques et financiers des

douanes en général.

Il est important de relever les limites de cette note, publiée dans un environnement technologique en évolution rapide : cette note est basée sur une publication de recherche de juillet 2023 et sur les résultats d'un séminaire de recherche sur l’IA générative pour les administrations fiscales et douanières qui s'est tenu en octobre 2023 en partenariat avec le monde universitaire6 . Cette note constitue une ressource parmi d’autres pour la réflexion stratégique des douanes qui envisagent d'utiliser l’IA générative. La présente note comprend trois sections principales : - En section introductive, une présentation succincte des principes de l’IA générative souligne aussi les limites inhérentes à cette technologie qui affectent son utilisation dans les douanes. - Une exploration des applications potentielles de l’IA générative au sein des douanes identifie à la fois les utilisations existantes qui peuvent être empruntées à d'autres secteurs et les applications imaginables dans un avenir proche, sous réserve d’évolutions techniques. - Une discussion finale porte sur trois aspects stratégiques : l'évolution de l'interaction homme-machine en raison de l'utilisation du langage naturel, les formations essentielles pour les fonctionnaires afin de maximiser les avantages de l’IA générative tout en atténuant les risques qui lui sont inhérents, et la construction d’un corpus d’entraînement souverain adapté aux besoins des douanes.

L’IA générative en bref

L’IA générative est spécifique en sa capacité à interagir avec les humains en utilisant

le langage naturel (c’est-à-dire sans utiliser de langage informatique ou « code »). Il estessentiel de bien concevoir que l’IA générative ni ne “pense”, ni ne “lit”, ni n'”écrit”, ni ne

“dessine” au sens humain du terme, avec la conscience de le faire. L’IA générative n’a aucune

notion du sens de ce qu’elle produit. L’IA générative opère sur le langage via des méthodesinformatiques et statistiques, elle est fondée, au final, sur la prédiction mathématique du mot

qui suit pour former des textes. Néanmoins, l’IA générative acquiert, de facto, des capacitésd’écriture, de synthèse et de résumé.

La publication et le séminaire ont été organisés conjointement avec la Fondation pour les études et la

recherche sur le développement international et son Institut des hautes études du développement durable. Le

document de travail est disponible en français et en anglais à l’adresse suivante :


1.1.Basic Technical Principles of Generative AI

The example of generative AI applied to text generation can help better
understand the basic principles of this type of AI. The major language models (called
“LLM”, for Large Language Models) currently constitutes the heart of the most common applications. more publicized generative AI, notably conversational agents like
ChatGPT. These new applications of LLMs are at the intersection of technologies of
artificial intelligence, machine learning and natural language processing.
Like all AI models, generative AI models must be “trained”. Unlike “weak” AIs which are trained on specific data, eg on customs data for risk analysis, generative AI is trained on a corpus of texts large enough to encompass language in its greatest extent. Corpora of texts exist and are available from open or commercial sources7. By way of pre-training, LLMs therefore “learn” how to language “works”, according to two fundamental principles, essential for understanding the capabilities but also the limits of generative AI. Lexical embedding is a form of text representation which is commonly used today. Each word is represented by a vector of “weight ” – numerical values ​​​​- assigned to a myriad of “parameters”. For example, the term “dog” is vectorized according to the values ​​​​assigned to it and which are linked to parameters such as “living being”, “animal”, “canids”, “humans”, “verb”, “plural”, “ name”, etc. The weights assigned to parameters define the unique characteristics of Each word. Each word is therefore transformed into a vector of numbers. Distance and relationships between words: once the words are digitally vectorized, generative AI calculates relationships between words and probabilistically anticipatory words following, including in complex sentences8. This function underlies its capabilities of text generation, essential for features such as multilingual translation, summaries or synthesis of texts. Then, the models are gradually refined, sometimes manually, by analyzing AI responses to improve its accuracy. Beyond this pre-training, generative AI can be trained and perfected on an additional, domain-specific body of information (fine-tuning). By

7 .The ChatGPT training corpus is still confidential, but it is estimated at several hundred gigabytes of documents (around 600 GB), provided by WebText (a standard corpus of web pages) increased of Wikipedia pages, academic articles and blogs. This corpus probably represents more than 500 billion words (https://scoms.hypotheses.org/1059). 8 This process is (more or less) the “T” of ChatGPT, the transformer technique that ensures the coherence of the meaning of a sentence; by combining words that may be far apart in a complex sentence. This is what we call the “attention mechanism” and which refers to an article in the science of LLM (Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, AN, ... & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30. Aliquam vel sapien at risus bibendum tempor ut nec ligula. Vestibulum tortor tortor, ornare nec tincidunt vel, luctus ac nisi. Nam fringilla auctor erat. Pellentesque consectetur nisl a lobortis dapibus. Sed a diam at augue cursus tempor. Morbi euismod tristique lectus, ut finibus eros. Donec non purus sem. Mauris eget feugiat felis, nec egestas lacus. Donec lobortis finibus erat, id aliquet exemple, un entraînement supplémentaire pourrait porter sur des textes de l'administration douanière, des textes législatifs et réglementaires, ou des textes définissant des règles d'origine, de valeur ou de classement tarifaire, ou des descriptions de produits ou de techniques de fabrication pour des produits légaux et illégaux, voire des rapports d’enquête. Les domaines de perfectionnement sont aussi variés que les utilisations possibles de l’IA générative. Alors que le pré-entraînement nécessite beaucoup de temps et de ressources informatiques, le perfectionnement peut être réalisé de manière plus simple et à moindre coût à l'échelle d'une administration. Ce point sera abordé plus spécifiquement dans la troisième section de la présente note. L’IA générative repose sur les réseaux neuronaux qui existent depuis au moins deux décennies. Si les technologies fondamentales de l’IA générative ne sont donc pas entièrement nouvelles, leur pertinence actuelle résulte de l'amélioration des vitesses de traitement et de la réduction des coûts de stockage des données9 . Ces progrès techniques ont permis deux avancées majeures qui rendent l’IA générative particulièrement performante. En premier lieu, les LLM sont "grands" (large), au sens où ils sont entraînés sur de grands corpus de textes et parce qu'ils ont un très grand nombre de paramètres. Par exemple, ChatGPT 4 est réputé avoir environ 1,7 trillion de paramètres ; Llama 2 a été entraîné sur 2 trillions de "tokens" (unités linguistiques uniques) et 1 million d'annotations humaines. Ces nouvelles échelles, comparées aux modèles passés d'analyse linguistique, marquent la véritable évolution des LLM. En deuxième lieu, les LLM sont désormais souvent multimodaux, capables de traiter, par le biais du langage, plusieurs types d'informations telles que des images ou des enregistrements audio. Ils peuvent reconnaître des objets dans une image/photo et analyser leurs relations. Sur un plan conceptuel, l’IA générative marque une étape cruciale dans le développement de l'IA. Ses modèles, appelés "modèles à usage général" ou "modèles de base", n'ont pas d'objectif fixe. Cela diffère des modèles d'IA dits faibles car spécialisés, ceux actuellement utilisés par les douanes et qui sont conçus pour des fonctions limitées, par exemple les algorithmes conçus pour l’analyse des risques. De plus, l’IA générative interagit en langage naturel : nous lui écrivons et nous lisons ses réponses. Contrairement aux IA qui renvoient des scores et des probabilités, et même si elle demeure basée sur un calcul statistique du langage, l'IA générique est textuelle - elle interagit par le biais du langage - et non numérique, ce qui facilite, élargit et diversifie les interactions humaines avec l'IA, mais aussi les risques de mauvaise utilisation (voir la section 3 sur les défis pour les douanes). 1.2. Tendances actuelles Les tendances actuelles de l’IA générative reflètent la montée en puissance d'un écosystème spécifique à ce type d’IA. Deux tendances principales sont apparues, communes à toutes les nouvelles applications dans le paysage informatique moderne :

1. Solutions commerciales vs. solutions open-source. La première tendance est la partition du secteur de l’IA générative entre une offre commerciale, performante mais dont les caractéristiques techniques restent opaques, et une offre dite libre (open-source), probablement moins performante dans un premier temps mais bénéficiant de communautés mondiales de développeurs donc qui devrait être aussi performante, voire plus, que le secteur commercial. ChatGPT, par exemple, est maintenu par OpenAI et propose un forfait d'abonnement pour une version optimale, ainsi que des services dédiés pour les grands opérateurs. Du côté des logiciels libres, par exemple, Llama 2 est mis gratuitement à la disposition du public par Meta10 . 2. Applications spécialisées. La deuxième tendance est le développement d’applications (plug-ins ou autres via les API) pour les principaux modèles, destinées à faciliter certaines tâches, telles que la lecture et le résumé de grands documents PDF, ou l'interface avec d'autres outils, comme la combinaison de l'écriture de code avec l’IA générative et GitHub, ou la recherche académique avec l’IA générative. Ces plug-ins peuvent être payants ou accessibles gratuitement. Une offre de services informatiques utilisant l’IA générative est aussi en développement

1.3. Limites actuelles de l’IA générative

By nature, generative AI therefore transforms texts into concepts and probabilities,it has generalist capabilities, but it can, in addition, be specialized in adomain. You can easily “talk” with a generative AI agent by sending it

requests ( prompt) and refining their responses throughout an exchange. This easeof use may mask limitations and risks that must be considered beforeany deployment. By design, generative AI has three specific limitations.

Explainability : explainability is the ability to understand the path ofthe algorithm until its result. The explainability of generative AI is currently very lowor even zero. Since generative AI is based on neural networks11, it isimpossible, even for its designers, to explain how the algorithm produces a result

specific. Explainability is a decisive characteristic for the choice of algorithms inpublic administrations12. Explainability is also a necessity in the case where AIwould not respect ethical values: when the results of AI cannot beexplained, it is all the more difficult to understand the origin of its shortcomings. In thecustoms, explainability is often one of the criteria for choosing algorithms whenthe administration is legally required to justify its decisions, which explains why

10 These are examples only. The WCO Secretariat does not recommend any particular model.11 Jovanovic, M., & Campbell, M. (2022). Generative Artificial Intelligence: Trends and Prospects.

algorithmes basés sur les arbres de décision, par exemple, ont été si populaires dans le domaine de la sélectivité. La recherche sur l'explicabilité progresse et des tentatives sont faites pour disséquer les réseaux neuronaux de l’IA générative afin de les expliquer "en partie"13. Toutefois, à ce stade, le manque d'explicabilité limite le rôle de l’IA générative à des fonctions de conseil et d'assistance plutôt que celui de pilote des processus décisionnels pour lesquels la responsabilité est une nécessité légale ou un besoin de l’administration dans ses rapports aux usagers. Hallucination versus biais. L’IA générative, comme toutes les IA, est sujette à des biais provenant de deux sources humaines. La première est le biais des données d'entraînement. Celles-ci peuvent refléter des préjugés humains qui, lorsqu'ils sont traités par l'IA, sont amplifiés, systématiques et utilisés de façon accélérée. Par exemple, si les fonctionnaires des douanes ont l'habitude de négliger certaines opérations sur la base de critères non explicites et subjectifs, l'IA perpétuera cette habitude qui pourrait s’avérer une négligence. On ne peut pas, dans ce cas, reprocher à la machine de faire une erreur, elle fait juste aussi mal que les humains, mais plus rapidement et plus régulièrement. La question des biais est bien connue des douanes, notamment dans les algorithmes d'analyse de risque. La deuxième source de biais est parfois à chercher dans la conception même des algorithmes. Les concepteurs d'IA peuvent incorporer des biais par inadvertance, soit par des paramètres à connotation raciale, soit en ne tenant pas compte du contexte de mise en œuvre. Quel que soit le type de biais, il est essentiel de se rappeler que toutes les IA sont sujettes à des biais similaires et que ces biais sont de sources humaines et ne sont pas des défauts innés de la machine. Par rapport aux IA spécialisées, l’IA générative présente une limitation unique appelée "hallucination", lorsqu’elle produit une erreur en se référant à des informations inexistantes. Par exemple, dans un cas célèbre où un avocat a utilisé ChatGPT pour préparer sa plaidoirie, ChatGPT a renvoyé des références très précises à une jurisprudence qui n'existait tout simplement pas14. Tout utilisateur de l’IA générative se verra répondre des hallucinations qui se manifesteront par des références à des informations inexistantes ou à de fausses attributions. Ces erreurs découlent de la conception de l’IA générative et des modèles de génération de langage naturel15, elles semblent inévitables, même si leur fréquence devrait diminuer avec le temps. La nature imprévisible de ces erreurs et leur impact potentiel nécessitent donc une vérification rigoureuse par des agents humains. Les hallucinations de l’IA générative posent trois problèmes. Premièrement, elles ne sont pas systématiques. La nature stochastique de l’IA générative rend les hallucinations totalement aléatoires. Deuxièmement, les hallucinations ne sont pas quantitativement détectables via une quantification de l’incertitude incluse dans les réponses de l’IA générative : l’IA générative produit des réponses avec le même degré de certitude, contrairement à l'IA spécialisée, qui est numérique et fournit donc des scores et des intervalles ou des degrés numériques de confiance pour ses réponses. Troisièmement, l'impact des hallucinations

pourrait être important, en raison de la tendance humaine inhérente à suivre les suggestions de l'IA lorsqu'elles sont intégrées dans un processus de prise de décision16 . C'est une raison supplémentaire pour n’envisager l’IA générative que comme un assistant et ne pas l’intégrer dans un processus décisionnel pour le moment, sans une intervention humaine stricte et systématique. Toute utilisation de l’IA générative qui la rendrait autonome devrait être exclue du champ des utilisations possibles par la douane. Toutes ses productions, qu'elles soient analytiques ou synthétiques, doivent être vérifiées par un agent humain. Reproductibilité : l’IA générative peut offrir des réponses différentes à la même question, en raison de sa nature stochastique. Si la même question est répétée, le sens des réponses ne devrait pas changer, mais l'expression peut changer. Le manque de reproductibilité peut mettre l'administration en difficulté si l’IA générative est autorisée à répondre directement au grand public. Même si le sens des réponses ne diffère pas, leur clarté et leur précision pourraient être affectées, ce qui entraînerait une rupture de l'égalité des usagers devant l'administration. Pour les agents qui utilisent l’IA générative en tant qu'assistant uniquement, le problème n'est peut-être pas juridique mais nécessite aussi beaucoup de vigilance. En effet, il a été observé malgré tout que les systèmes d’IA générative donnent des réponses à la fois correctes et incorrectes lorsqu'une même question leur est posée plusieurs fois.

2.Utilisations de l’IA générative par les douanes

  1. Au moment de la publication de la présente note, le Secrétariat n’a pas été informé del’existence d’une administration douanière ayant intégré l’IA générative, à quelques exceptions

près dans les administrations douanières et fiscales ou dans les entreprises privéesfournissant des services aux douanes, qui testent actuellement l’IA générative17 .Au niveau national, plusieurs gouvernements ont mis en place des entités dédiées à

l’étude des implications et des applications de l’IA générative. En particulier, le gouvernementde Singapour, en collaboration avec une entreprise privée, a l’intention de fournir à tous sesfonctionnaires un assistant qui centralisera de nombreuses applications dans ses différentes

administrations18 .

16 Alon-Barkat, S., & Busuioc, M. (2023). Human-AI interactions in public sector decision making:
“automation bias” and “selective adherence” to algorithmic advice. Journal of Public Administration Researchand Theory, 33(1), 153-169.17 Indian Customs is experimenting with LLMs to identifyHarmonized System classification inconsistencies in real time (WCO Asia/Pacific Customs News, September 2023, pp. 38-40
). A private company providing a risk and trade analysis platform to Customs presented
the use of generative AI at the October 2023 session of the WCO Data Innovation Hub in Brussels.The French government has launched a public experiment on generative AI to help civil servantsrespond to users. The French tax administration also announced that it is launching
internal Generative AI experiments for investigative purposes 

Cette section donne un aperçu des utilisations potentielles de l’IA générative par les douanes. Elle tient compte des limitations mentionnées dans la section précédente : l’IA générative n'est intégré dans aucun processus d'aide à la décision dont l'administration devrait être responsable, et n'est envisagé que dans des fonctions d'assistance.

2.1. Utilisations dérivées d’autres domaines Le tableau 1 présente un inventaire des applications potentielles en douane, dérivéesdes utilisations existantes dans d’autres secteurs ou de celles explorées par les chercheurset le Secrétariat. Des références détaillées figurent en annexe.

Customs – public relations

a new generation of chatbots

Current customs chatbots are   limited by expert systems and dictionaries. Generative AI makes interaction more intuitive and more easily multilingual.

An often mentioned risk is that the user may not be able to know whether they are interacting with a human agent or a generative AI agent.

This risk can be addressed both legally and technically. Some national or regional legislation, such as the European Union’s AI law, requires that generative AI include forms of marking that allow anyone to verify the human or mechanical source of a speech (letter, text, etc.). .). Technical solutions known as “watermarking” are being studied.

The administration must also assess the importance of identifying the interlocutor based on whether or not the response provided to the user is legally binding, the potential consequences of using any given information, the likelihood of errors and the expectation of authority and reliability. For example, it may be legally tolerable for the user of a price classification chatbot to be informed that he or she is communicating exclusively and systematically with an artificial agent whose responses have no legal value. However, given that a misclassification can cause significant financial harm to the user, a significant error rate can be expected for products that are not specifically covered by

the training corpus and that the users of a

  

official customs website expect a very high level of authority and reliability, the aforementioned disclaimer may well be insufficient to protect the administration against

claims or reputational risks.

communication aid

Automatic writing of articles and messages on social networks.

reading help

Classification of texts/messages/articles according to their positive or negative character, applicable for example to reading responses to questionnaires or to analyzing the opinions of

users.

Design

writing help

Write, summarize, correct spelling and syntax, improve the style and adapt it to professional uses, take notes during

conferences and meetings.

assistance in research and analysis of

texts

Production of a summary on a field or legal questions, based on a multilingual body of knowledge.

help with data analysis

digital

Automatic writing of computer code, implementation of machine learning models,

visualization of statistical parameters.

assistance with

project management

Choice of project monitoring methods, responses to

problems encountered during the project.

help with

negotiation

Adopt different points of view, discuss from

critical perspectives.

Training

assistance in the selection of

profiles

Generation of job descriptions, trainer profiles, automatic reading of CVs.

training assistance

Proposal of training plans, content of the

training, adaptation of training to the individual level of participants.

Investigation and intelligence

help with evidence collection

digital

Automated collection and representation of evidence collected on digital media

analysis support

Fusion of information (open sources, minutes, notes, etc.), representation of large masses of information in the form of “knowledge graphs”, interrogation of masses of information, synthesis, writing of

minutes and investigation reports.

 

Tableau 1. Utilisations testées dans des domaines non douaniers et applicables dans un contexte douanier

2.2. Utilisations exploratoires

For exploratory purposes, we identify two types of applications, certainly speculativebut based on existing and tested generative AI capabilities.Generative AI as an interface between civil servants and specialized AI, orassociated with expert systems, in order to improve interaction between user and machinethrough the use of natural language. Within customs, possible applications couldinclude generative AI support for rate ranking search engines,

to facilitate the use of synonyms, multilingual capabilities, interaction onthe relationships between the classification options and the associated regulatory texts, all theseinteractions helping to gradually refine the ranking of a product during the

conversation with AI. For risk analysis, generative AI could serve as an interfacebetween officials and algorithms, helping to understand the types of risks,establishing correlations with previous cases or answering any questions that aofficial might encounter when processing risks identified by the machine. Inall these scenarios, the sharing of customs documents, such as reportsinvestigation and regulatory texts, and the possibility of interacting with an AI putting these

knowledge available in natural language would streamline the flow of information for

customs officials, helping them establish links between suspected fraud and

previously identified cases.

Generative AI to check consistency between text and images. AIgenerative is already capable of describing an image. In customs, specialized AI isused to detect only certain types of illegal goods in imagesx-rays, but it cannot “read” or “compare” the textual description of the

goods provided by the importer and the image provided by the scanner. Generative AI makesnow imaginable the comparison between images and texts in customs operations:between images from merchandise photographs or container scanners,on the one hand and on the other hand the textual descriptions of the same goods provided inmanifests and tariff classifications of detailed declarations. It can therefore beconsidered detecting anomalies, or evaluating the imprecision of descriptions ofgoods in cargo manifests as a risk criterion, to be linkedpossibly to the evaluation of the homogeneity of the cargo as assessed byAI on the scanner image.Generative AI is suited for assistance rather than decision-making. AI

generative cannot evaluate the robustness of its results in terms of probabilities,

as specialized AI does. It is therefore much more difficult to set thresholds

predefined acceptability criteria for its results, as is the case for specialized AI.However, using it as an assistant has immense potential fortasksadministrative and can renew the interest of civil servants in their work.

Trois avantages fondamentaux sont attendus de l’IA générative. Rentabilité. L'utilisation de l’IA générative pourrait conduire à des réductions significatives des dépenses opérationnelles en internalisant des tâches traditionnellement externalisées, telles que l'assistance éditoriale, la création de matériel de communication et la traduction. En ce qui concerne l'analyse des données, qui pose de nombreuses difficultés aux douanes qui doivent engager des spécialistes, les coûts opérationnels du GPT-4 se situent entre 0,45 % et 0,70 % de ceux d'un analyste de données, en fonction de leur expertise19 . Cependant, la mobilisation de l’IA générative pour l'analyse des données ne devrait pas remplacer les douaniers experts en données à court ou à moyen terme, l’IA générative ne ferait probablement que "démocratiser" l'analyse des données de base pour les fonctionnaires des douanes. Amélioration de l'analyse. L’IA générative peut améliorer la qualité des analyses effectuées par les fonctionnaires. Elle donne accès à un vaste corpus multilingue de connaissances pour les politiques publiques, permet une analyse complète des documents pour les spécialistes du renseignement et facilite la diffusion multilingue des positions administratives aux niveaux régional et international. L'accès à un corpus de connaissances multilingues et la possibilité de rédiger dans sa langue maternelle constituent un avantage important pour tout agent des douanes, en particulier dans les pays non anglophones. Cependant, comme nous l'avons vu dans la section 1, des agents qualifiés seront toujours nécessaires pour tirer profit de l'interaction avec l’IA générative et contrôler ses réponses. En outre, la représentation des langues dans les corpus d’entraînement varie grandement d'une langue à l'autre, et les risques d'erreurs et de mauvaises traductions augmentent pour les langues sous-représentées dans le corpus20 . Cohérence. L’IA générative pourrait contribuer à garantir l'uniformité sémantique et stylistique des documents administratifs. Si les gains d'efficacité sont souvent mis en avant, ils doivent être évalués avec discernement. Bien que l'amélioration de la qualité des documents puisse accélérer les validations hiérarchiques, les fonctionnaires utilisant l’IA générative pourraient ne pas toujours gagner du temps. Ils pourraient être chargés de responsabilités supplémentaires, de même qu’ils pourraient être sujets à des attentes plus élevées en matière de qualité de documents produits. L'afflux d'informations accessibles et l'amélioration des capacités d'analyse pourraient légitimer davantage de temps investi dans la recherche ou les enquêtes préliminaires. Enfin, comme nous le verrons dans la section suivante consacrée aux limites et aux risques de l’IA générative, les fonctionnaires pourraient avoir besoin de consacrer du temps à la vérification du contenu généré par l'IA

2.4. Coûts L'évaluation des coûts opérationnels de la mise en œuvre de l’IA générative est complexe en raison de la diversité de ses applications et de ses techniques de déploiement, qui vont d'approches nationales centralisées, comme à Singapour, à des déploiements sur des ordinateurs portables individuels utilisant des modèles open-source. Toutefois, l'autonomie relative de l’IA générative par rapport aux systèmes informatiques administratifs existants pourrait réduire les frais d'installation par rapport à l'IA spécialisée. L'IA générative pourrait être installée, pour des utilisations d'assistance relativement basiques, en tant que système plus ou moins autonome au sein du système informatique douanier, alors que l'IA spécialisée doit généralement être intégrée dans le système informatique existant, ce qui soulève souvent de nombreuses difficultés. Les experts de l'OMD ont relevé un défi récurrent auquel sont confrontées les administrations douanières pour déployer l'IA, transformer l'expérimentation en laboratoire en un déploiement complet dans l'administration. Ce problème est commun à l'IA spécialisée dans toutes les organisations21. Compte tenu de sa relative autonomie, l’IA générative devrait, au moins dans un premier temps, bénéficier d'une intégration administrative plus simple. Notamment, de nombreuses entreprises privées ont rapidement intégré l’IA générative dans leur système informatique. Cette considération est cruciale pour les stratégies douanières en matière de données et de technologies de l'information qui devraient distinguer la stratégie pour l'IA générique de celle pour l'IA spécialisée. En substance, l’IA générative offre la possibilité de réduire les dépenses opérationnelles et d'améliorer la qualité analytique des productions stratégiques et opérationnelles. Son potentiel de gain de temps pour les fonctionnaires mérite toutefois d'être exploré plus avant. La stratégie d'intégration de l'IA générative, en particulier dans le domaine des données douanières et des stratégies informatiques, devrait être pensée distinctement de celle de l'IA en général.
Domaine de
risques
Risques
Effets
Réponse

Confidentialité

Les conversations avec des agents d’IA générative sur l’Internet peuvent être stockées par les entreprises qui les déploient.

Violation de la confidentialité des données individuelles (noms d’entreprises, adresses, etc.).

Divulgation des intérêts

stratégiques de l’administration à des tiers.

Ne pas partager de donnée individuelle et nominative.

Estimer la sensibilité du sujet à traiter avant de le partager avec l’IA générative (se demander si l’administration organiserait une conférence publique sur ce sujet).

Erreurs

Comme l’IA spécifique, l’IA générative est sujette aux biais contenus dans le corpus d’entraînement. En outre, l’IA générative produit des “hallucinations”, telles que des faits, des données et des références qui n’existent pas.

Les hallucinations ne sont pas systématiques

(une même question posée plusieurs fois peut générer une hallucination une seule fois).

Production d’analyses biaisées et erronées et diffusion de faits non vérifiés.

Risque légal, risque de répu0tation.

Vérifier tous les résultats et toutes les sources. Ne pas partir du principe que la machine ne peut être que biaisée, elle peut aussi produire une erreur.

Propriété des documents

Il est possible de partager des documents entiers avec l’IA générative, en vue d’un traitement ou d’une analyse ultérieure.

Cependant, certaines entreprises de l’IA générative prévoient dans leurs dispositions légales qu’elles peuvent utiliser tout document

partagé par l’utilisateur à leurs propres fins.

Perte de la propriété exclusive du document.

Estimer la sensibilité du document avant de le partager.

Plagiat

L’IA générative peut proposer des réponses qui

paraphrasent des auteurs ou des documents sans les citer.

Atteinte à la réputation de l’administration.

Utiliser un logiciel anti-plagiat et citer les

sources dans tous les textes produits par l’administration.

Validité temporelle des informations

Compte tenu du coût élevé de la formation des agents d’IA générative – pour les plus performants d’entre eux – la formation ne peut être lancée sur de courtes périodes.

L’information accessible mobilisée par l’IA

générative a donc une limite temporelle.

Non prise en compte des derniers faits, contextes, avancées scientifiques ou cadres juridiques.

Compléter l’analyse avec l’IA générative en utilisant des moteurs de recherche spécialisés (académique, presse, etc.). Utiliser des agents d’IA générative qui complètent leurs analyses par des

recherches sur Internet.

Sources d’information

Certains agents d’IA générative ne fournissent pas de sources pour les idées ou les analyses qu’ils rapportent dans les conversations, ou ils en fournissent de fausses (hallucinations).

Erreurs dans les sources d’information fournies par l’IA générative au cours d’une conversation.

Consulter les moteurs de recherche spécialisés et utiliser des plug-ins adaptés à la recherche académique qui fournissent les sources des idées et des

documents.

Reproductibilité

L’IA générative étant un processus stochastique, elle ne peut pas produire exactement les mêmes réponses, textuelles ou visuelles, à une

demande identique.

Possibilité de traitement inégal des utilisateurs (à étudier au cas par cas)

Évaluer la sensibilité de la précision des réponses attendues de l’IA générative lorsque celle-ci peut être en contact direct

avec le public.

Explicabilité

L’IA générative apporte des réponses qui ne peuvent pas être expliquées. Elle s’appuie sur des technologies d’intelligence artificielle qui ne permettent pas de connaître précisément la séquence des opérations informatiques conduisant au résultat.

Incapacité à rendre compte des décisions administratives.

Difficulté à détecter les causes de l’inégalité de traitement par

l’administration.

Ne pas utiliser l’IA générative de manière autonome dans les processus de prise de décision.

Tableau 2. Risques, limites et réponses possibles pour former les fonctionnaires.
  • 3.3
  • Creation of a training corpus  

In the current digital landscape shaped by generative AI, the strategic critical point for public administrations will no longer necessarily be the choice of algorithms but rather the construction of the training corpus. It will become imperative for government entities to develop their own specialized corpus, tailored to their unique needs. Such a corpus should ensure that generative AI responses are aligned with the missions and thematic interests of administrations, and that they are consistent with the administrative terminology in use.

For example, it was suggested that in the field of tariff classification, a specialized corpus would include regulatory texts relating to the harmonized system (HS), nomenclature, legal notes, explanatory notes and classification notices, but also documents published national internal reports on classification cases, records of misclassification fraud cases, or even product specifications. However, it is unlikely that such a corpus will be sufficient to obtain good results in an automated manner. The nature of current generative AI means that it does not “classify” in the sense of applying legally binding HS rules, but relies on a corpus of texts associating goods with a classification, and the above list would contain only a fraction of the possible descriptions of the goods. Expanding the corpus to all declaration data would provide greater variety, but the system would then be trained on data with a very high probability of significant error rates in classification, depending on agent performance customs in classification, and this would require significant reinforcement learning from human feedback. Likewise, updates to the HS or national tariff would pose great difficulties because they would change the classifications from what the bulk of the material has learned for the products concerned.

In areas where the possibilities are greater, it is appropriate to consider a broad perspective in order to facilitate policy analysis, the training corpus must therefore integrate contemporary strategic or innovative topics for the administration, in particular articles from press, research documents and essential administrative texts (both public and internal).

Current advances in generative AI make it possible to refine 23  such corpora according to specific needs. Generative AI companies already offer fine-tuning capabilities to align models with user needs. Solutions have emerged in sectors such as the legal field 24  and within private companies

23  OpenAI already has this online offer to fine-tune its own conversational agent, which of course has a cost 

  https://www.reuters.com/technology/bar-exam-score-shows-ai-can-keep-up-with-human- _ 

lawyers-researchers-say-2023-03-15/

See also Harvey for Lawyers  https://www.sequoiacap.com/article/partnering-with-harvey-putting-llms-to-work/  and current projects https://www.pwc.com/gx/en /news-room/press-releases/2023/pwc-  

providing writing support tools to their employees 25 . This adaptability of models is a standard characteristic of all generative AI models, even in so-called open-source free solutions  .

Another benefit of model fine-tuning is the potential creation of models requiring fewer parameters. These models could consume fewer resources, making them easier to implement locally, shortening training periods and allowing more frequent updates.

At the national level, generative AI therefore leads to a shift in strategic interest, from algorithms to the training corpus. With specialized AI, training data was often free because it came from existing databases and computer clearance systems. The development of training corpora for generative AI now represents a strategic, human and financial investment for government agencies.

At the international level, training corpuses are expected to become even more important, not only economically, but also politically. The construction of these corpora requires judicious selection of content, which in turn defines an established “truth” of knowledge. From a geopolitical point of view, these corpora could appear as new avenues of political influence, when a more advanced country shares its training corpus with a less advanced country.

Given the ongoing discussions on establishing sovereign generative AI, the Secretariat highlights the need for members to proactively assess the organizational impacts of generative AI so that customs themes and missions are taken into account in national discussions. Rapidly launching generative AI experiments in customs will enable civil servants to better envision their future and prepare for their evolving roles.

3.  Conclusion

 

While early adoption of generative AI by Customs can bring major successes for a more data-driven administration, it can just as easily be a failure, particularly in terms of reputation. Judging how and when to use generative AI requires understanding the technology, capabilities, strengths and limitations, as well as putting in place the many prerequisites for obtaining the expected results. Among these, it is important to continue to explore the risks and consequences of generative AI on customs administrations, the interaction of officials with AI and relations with the rest of society. Research, experiences and sharing of knowledge through continuing training of civil servants

announces-strategic-alliance-with-harvey-positioning-pwcs-legal-business-solutions-at-the-forefront-of-legal-  generative-ai.html

25 https://asia.nikkei.com/Business/Companies/Panasonic-unit-deploys-ChatGPT-style-AI-to-improve- 

productivity

douanes sont essentiels pour rendre la technologie plus performante et préparer les fonctionnaires à son utilisation appropriée.

La technologie et l’innovation étant l’un des domaines prioritaires du plan stratégique de l’Organisation, le Secrétariat de l’OMD continuera à soutenir ses Membres en développant les connaissances sur l’IA générative, ses applications et son utilisation en douane, sur la base de recherches et en coopération avec les Membres et les universités.

2. Annexe. Références bibliographiques sur les utilisations.

 

 

Chatbots

Initiative française pour appuyer les fonctionnaires dans leurs réponses aux usagers https://www.gouvernement.fr/upload/media/content/0001/05/0a63326de41e

9a36d7878966030e3ce55e98bddf.pdf.

Assistance à l’écriture

Babl, F. E., & Babl, M. P. (2023). Generative artificial intelligence: Can ChatGPT write a quality abstract?”. Emergency Medicine Australasia.

 

Huang, J., & Tan, M. (2023). The role of ChatGPT in scientific communication: writing better scientific review articles. American Journal of Cancer Research, 13(4), 1148.

 

Herbold, S., Hautli-Janisz, A., Heuer, U., Kikteva, Z., & Trautsch, A. (2023). AI, write an essay for me: A large-scale comparison of human-written versus ChatGPT-generated essays. arXiv preprint arXiv:2304.14276.

 

Jiao, W., Wang, W., Huang, J. T., Wang, X., & Tu, Z. P. (2023). Is ChatGPT a good translator? Yes with GPT-4 as the engine. arXiv preprint arXiv:2301.08745.

 

Pu, D., & Demberg, V. (2023). ChatGPT vs Human-authored Text: Insights into Controllable Text Summarization and Sentence Style Transfer. arXiv preprint arXiv:2306.07799

 

Xames, M. D., & Shefa, J. (2023). ChatGPT for research and publication: Opportunities and challenges. Available at SSRN 4381803.

 

Yang, X., Li, Y., Zhang, X., Chen, H., & Cheng, W. (2023). Exploring the limits

of chatgpt for query or aspect-based text summarization. arXiv preprint arXiv:2302.08081

Assistance à la recherche et l’analyse

Opdahl, A. L., Tessem, B., Dang-Nguyen, D. T., Motta, E., Setty, V., Throndsen, E., … & Trattner, C. (2023). Trustworthy journalism through AI. Data & Knowledge Engineering, 146, 102182

 

Pierce, N., & Goutos, S. (2023). Why Law Firms Must Responsibly Embrace Generative AI. Available at SSRN 4477704.

Assistance à l’analyse de données

Cheng, L., Li, X., & Bing, L. (2023). Is GPT-4 a Good Data Analyst? arXiv preprint arXiv:2305.15038https://arxiv.org/pdf/2305.15038.pdf

 

https://ieg.worldbankgroup.org/blog/fulfilled-promises-using-gpt-analytical- tasks

Assistance

à la gestion de projet

Minelle, F., & Stolfi, F. (2023). AI to support PM: a ChatGPT quality assessment (ß test). URL: https://pmworldlibrary.net/wp-

 

content/uploads/2023/05/pmwj129-May2023-Minelle-Stolfi-AI-to-support-

PM-a-ChatGPT-quality-assessment-3-1.pdf

Assistance

à la lecture

https://ieg.worldbankgroup.org/blog/fulfilled-promises-using-gpt-analytical-

tasks

Assistance à la collecte de la preuve numérique

Rodrigues, F. B., Giozza, W. F., de Oliveira Albuquerque, R., & Villalba, L. J.

G. (2022). Natural language processing applied to forensics information extraction with transformers and graph visualization. IEEE Transactions on Computational Social Systems.

 

Henseler, H., & van Beek, H. (2023). ChatGPT as a Copilot for Investigating Digital Evidence. https://ceur-ws.org/Vol-3423/paper6.pdf

Assistance à l’enquête

Graham, S., Yates, D., & El-Roby, A. (2023). Investigating antiquities trafficking with generative pre-trained transformer (GPT)-3 enabled knowledge graphs: A case study. Open Research Europe, 3, 100.

Ouvrir le chat
Bonjour 👋
Pouvons-nous vous aider?