Utilisateur:Zywood/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

ChatGPT est un prototype d'agent conversationnel utilisant l'intelligence artificielle développé par OpenAI et spécialisé dans le dialogue. L'agent conversationnel est un modèle de langage affiné à l'aide de techniques d'apprentissage supervisé et d'apprentissage par renforcement.

ChatGPT est lancé en novembre 2022 et attire l'attention pour ses réponses détaillées articulées, bien que son exactitude factuelle soit critiquée.

En 2023, la société OpenAI, maison-mère de ChatGPT est valorisée 29 milliards de dollars américains.

Caractéristiques[modifier | modifier le code]

Page d'accueil de ChatGPT avant le 15 décembre 2022. ChatGPT est un agent conversationnel à intelligence artificielle ou « chatbot », autrement dit un assistant virtuel qui utilise les nouvelles technologies pour dialoguer avec ses utilisateurs.

Disponible dans de multiples langues comme le français, son robot conversationnel est capable de comprendre les questions des utilisateurs et d’y répondre dans un langage très proche de celui d’un humain.

Bien que ChatGPT soit en accès libre, il est nécessaire d’ouvrir un compte sur le site web d'OpenAI pour accéder au robot.

Modèle de langage et d’apprentissage[modifier | modifier le code]

ChatGPT est affiné sur la base du modèle de langage GPT-3 d'OpenAI, avec l'apprentissage supervisé et l'apprentissage par renforcement, les deux approches faisant appel à des formateurs humains pour améliorer les performances du logiciel.

Dans le cas de l'apprentissage supervisé, le modèle reçoit des conversations dans lesquelles les formateurs jouent les deux rôles : l'utilisateur et l'assistant d'intelligence artificielle. Dans l'étape de renforcement, les formateurs humains ont d'abord classé les réponses que le modèle avait créées dans les conversations précédentes. Ces classements ont été utilisés pour créer des modèles de récompense sur lesquels le modèle est affiné en utilisant plusieurs itérations de Proximal Policy Optimization (en) (PPO),.

Les algorithmes de Proximal Policy Optimization présentent un avantage économique par rapport aux algorithmes de Trust Region Policy Optimization (en) ; ils annulent un grand nombre d'opérations coûteuses en calcul avec des performances plus rapides,. Les modèles sont formés en collaboration avec Microsoft sur son infrastructure de supercalculateur Microsoft Azure.

Atouts[modifier | modifier le code]

Par rapport à son prédécesseur, InstructGPT, ChatGPT tente de réduire les réponses erronées et trompeuses. Par exemple, lorsque l’utilisateur écrit « Raconte-moi quand Christophe Colomb est arrivé aux États-Unis en 2015 », InstructGPT considère cette affirmation comme vraie, tandis que ChatGPT utilise des informations sur les voyages de Christophe Colomb ainsi que des informations sur le monde moderne, y compris la perception de Christophe Colomb dans notre société contemporaine, pour construire une réponse qui imagine ce qui se passerait si Colomb venait aux États-Unis en 2015.

À la différence de la plupart des agents conversationnels, ChatGPT se souvient des messages précédents qui lui sont donnés par l’utilisateur au cours d'une même conversation, ce qui, selon certains journalistes, lui permettrait d'être utilisé comme un thérapeute personnalisé.

Dans le but d'empêcher que des résultats offensants soient présentés à ChatGPT ou produits par celui-ci, les requêtes sont filtrées par une API de modération et les messages potentiellement racistes ou sexistes sont rejetés,.

Limites[modifier | modifier le code]

ChatGPT possède cependant de multiples limitations.

Le modèle de récompense de ChatGPT, conçu autour de la surveillance humaine, peut par exemple être suroptimisé et ainsi entraver les performances, un phénomène connu sous le nom de loi de Goodhart.

En outre, ChatGPT n’a pas accès à Internet et a une connaissance limitée des événements survenus après 2021. La base de données utilisée par ChatGPT ne contient en effet que des informations antérieures ce qui peut poser problème lorsque la recherche concerne des événements récents. Si l’utilisateur interroge par exemple ChatGPT sur l’effondrement en 2022 de la plate-forme de cryptomonnaies FTX, l’IA se révèle incapable de répondre. Elle se contente alors d’indiquer :

« Je suis désolé, mais je ne suis pas en mesure de fournir des informations sur des événements qui ont pu se produire dans la réalité. [Mes données d’entraînement] ne couvre[nt] pas de tels événements et je n’ai pas accès à l’internet pour effectuer des recherches. »

Lors de la phase d’entraînement de l’IA, les évaluateurs humains ont par ailleurs privilégié la rédaction de réponses plus longues, indépendamment de la compréhension réelle du sujet traité ou du fait qu’il s’agisse d’un contenu factuel.

Les données d'entraînement peuvent également souffrir d'un biais algorithmique. Des messages comprenant des descriptions vagues de personnes, comme un président directeur-général, pourraient ainsi générer une réponse qui suppose que cette personne est, par exemple, un homme blanc.

Utilisation[modifier | modifier le code]

Le 5 décembre 2022, Sam Altman, un des dirigeants d’OpenAI, indique que le prototype, qui est pour l'instant gratuit, a atteint un million d'utilisateurs.

D'après le professeur François Fleuret de l'université de Genève, le profil des utilisateurs de ChatGPT est assez varié. Il peut s'agir d'étudiants, d'enseignants, de développeurs ayant besoin de bouts de code d'un programme informatique ou encore de professionnels souhaitant avoir des propositions de texte dans le cadre de la rédaction de mails à caractère sensible.

Intégration dans des solutions Microsoft[modifier | modifier le code]

Cette section contient des informations sur des événements prévus ou attendus.

Il se peut que ces informations soient de nature spéculative et que leur teneur change considérablement alors que les événements approchent. La dernière modification de cette page a été faite le 22 janvier 2023 à 13:34.

Microsoft Bing[modifier | modifier le code]

Dans le cadre du partenariat entre Microsoft et Open AI, un projet d’intégration de ChatGPT dans le moteur de recherche Microsoft Bing serait à l’étude. En effet, d’après le média The Information, ChatGPT pourrait être intégré dans une future version de Bing afin d’assister l’internaute dans sa recherche en ligne.

L’intégration de ChatGPT se ferait sous la forme d’une option qui permettrait à l’utilisateur de lancer des requêtes à travers le robot conversationnel. Au lieu de proposer une liste de liens comme dans un moteur de recherche classique, Bing serait alors capable de répondre de façon ciblée à l’internaute,.

L’objectif pour Microsoft serait ainsi de permettre à son moteur de recherche Microsoft Bing de concurrencer Google qui détient plus de 90 % des parts du marché mondial en 2023.

Microsoft Office[modifier | modifier le code]

Selon le média The Information, Microsoft souhaiterait également intégrer ChatGPT dans sa suite bureautique Microsoft Office,.

Dans Microsoft Outlook, l'objectif serait d'améliorer l'interface de recherche afin de permettre à l'utilisateur d'obtenir des résultats à partir de simples requêtes, et également d'accéder à des propositions de textes de mails, qui seraient rédigées directement par l'IA sur la base de l'historique des échanges de l'utilisateur,.

Dans Microsoft Word, le robot conversationnel serait capable de donner des conseils à l'utilisateur dans la rédaction de son document.

Dans Microsoft PowerPoint, ChatGPT pourrait générer des diapositives à partir des discussions entre les utilisateurs dans Microsoft Teams.

Cependant, pour le journaliste Julien Lausson du site Numerama, ces différents usages de ChatGPT soulèvent des problèmes de confidentialité par rapport aux données des utilisateurs, car l'IA aurait ainsi accès à leurs correspondances, y compris à leurs correspondances privées.

Modèle économique[modifier | modifier le code]

Le prototype de ChatGPT, basé sur le modèle de langage GPT-3 est actuellement gratuit.

Même si le coût moyen de chaque réponse est relativement faible (de l’ordre de quelques centimes), Sam Altman, un des dirigeants d’OpenAI, indique cependant qu'Open AI devra monétiser un jour l’application en raison de ses coûts de calcul « exorbitants ».

Dans cette optique, Open IA prépare la création d'une version professionnelle de son chatbot. Cette version payante, appelée ChatGPT Professional, serait capable d’écrire différents types de contenus comme des e-mails ou du code informatique. Les utilisateurs intéressés sont invités à rejoindre une liste d'attente ouverte à cet effet en janvier 2023.

Pour l'expert en marketing numérique Tim Peter, le financement de ChatGPT pourrait cependant venir du partenariat entre Open AI et Microsoft. En effet, contrairement à Google qui tire ses revenus essentiellement de la publicité, Microsoft pourrait subventionner ChatGPT grâce à ses autres activités comme la vente de matériel et de logiciels.

Les utilisateurs inscrits sur liste d'attente ont commencé à recevoir un message pour accéder à la version professionnelle pour 42$ par mois. Cette version offre un accès à ChatGPT Professional même lorsque les serveurs sont surchargés et permet d'obtenir des réponses plus rapides qu'avec la version gratuite.

Accueil[modifier | modifier le code]

Lors de son lancement en décembre 2022, ChatGPT est accueilli de manière globalement positive.

La journaliste Samantha Lock (en) du Guardian note que le prototype est capable de générer des textes « remarquablement détaillés » et « semblables à ceux d'un être humain ». Son confrère Benjamin Hue de RTL loue la capacité du robot à rédiger un texte sur « tous les sujets possibles et imaginables », qu'il s'agisse d'une recette de cuisine, d'une dissertation, d'une lettre de motivation ou encore d'inventer une histoire pour enfants. Il note également que le robot est capable de répondre à des demandes plus pointues comme le débogage d'un code informatique.

Le journaliste Dan Gillmor, spécialiste des nouvelles technologies, a également utilisé ChatGPT dans le cadre d'un travail d'étudiant et a trouvé que le texte généré était comparable à celui qu'un bon étudiant produirait. Il estime par ailleurs que « le monde académique a de très sérieux problèmes à affronter ».

De son côté, Alex Kantrowitz de Slate, salue la manière dont ChatGPT réagit aux questions relatives à l'Allemagne nazie, notamment l'affirmation selon laquelle Adolf Hitler a construit des autoroutes en Allemagne, ce qui a engendré des informations sur l'utilisation du travail forcé par l'Allemagne nazie.

Dans un article d'opinion publié en décembre 2022, l'économiste Paul Krugman a écrit que ChatGPT aurait un impact sur la demande de travailleurs de la connaissance. Cette position est partagée par Jonathan Durand Folco qui montre, suite à une lettre d'opinion de 600 mots rédigée par cet outil, que « l'ensemble des écoles primaires et secondaires, des cégeps et des communautés universitaires » est appelé à modifier en profondeur ses outils d'évaluation.

James Vincent, de The Verge, voit dans le succès viral de ChatGPT la preuve que l'intelligence artificielle est devenue incontournable. Dans The Atlantic, Stephen Marche (en) note que l'effet de ChatGPT sur le monde universitaire, et en particulier sur les essais de candidature (par exemple, pour une admission à une université ou l'obtention d'une bourse), reste encore à comprendre. Daniel Herman, professeur de lycée et auteur californien, écrit que ChatGPT marquera la « fin de l'anglais au lycée ».

Ambiguïté des réponses et fausses informations[modifier | modifier le code]

L'exactitude de certaines réponses de ChatGPT a cependant été remise en question.

Le journaliste Mike Pearl de Mashable a notamment testé ChatGPT en lui posant plusieurs questions factuelles. Dans une conversation, il demande par exemple au modèle quel est « le plus grand pays d'Amérique centrale qui n'est pas le Mexique ». ChatGPT répond qu'il s’agissait du Guatemala, alors que la réponse est plutôt le Nicaragua. Cette erreur provient de l'interprétation de la question par ChatGPT, qui a cru que l'on s'intéressait à la taille de la population plutôt qu'à la superficie du territoire.

Un certain nombre de chercheurs alertent également sur la publication de fausses informations par ChatGPT, en particulier dans le domaine scientifique. C'est le cas notamment de l’experte en mégadonnées Teresa Kubacka qui explique avoir testé le robot sur le multiferroïsme. Elle indique que ce dernier lui a fourni de fausses citations de chercheurs, qui semblaient « avoir été assemblées comme un mélange à partir de quelques citations réelles, différentes mais similaires. »

Selon elle, il est également possible de tromper l'IA en inventant des concepts imaginaires : « J'ai décidé de demander à ChatGPT quelque chose qui n'existait pas : un électromagnon inversé cycloïdal. [..] Et bien le chatbot l'a inventé, assurant même que la question a fait l'objet de nombreuses recherches ces dernières années. »

Même si les résultats peuvent parfois être spectaculaires, l'un des dirigeants d’OpenAI, Sam Altman, admet que l'application comporte encore des erreurs sur des sujets importants, et que les retours des utilisateurs sont nécessaires pour corriger les erreurs.

Interdictions[modifier | modifier le code]

En décembre 2022, le site Web de questions-réponses Stack Overflow interdit l'utilisation de ChatGPT pour générer des réponses à des questions, en raison de la nature factuellement ambiguë des réponses de ChatGPT.

En janvier 2023, les services de la ville de New York interdisent également l’accès à ChatGPT sur les postes informatiques des écoles publiques de la ville. Une porte-parole de la ville de New-York justifie cette décision en raison des « préoccupations concernant la sécurité et l’exactitude du contenu ».

Risques d'actes malveillants[modifier | modifier le code]

Dès le lancement de ChatGPT, des craintes apparaissent concernant des détournements possibles de l'outil à des fins malveillantes.

En décembre 2022, l'économiste Tyler Cowen exprime notamment des inquiétudes quant à ses effets sur la démocratie, citant la capacité d'une personne à écrire des commentaires automatisés dans le but d'influencer le processus de décision de nouvelles réglementations. De son côté, le chercheur en sécurité Ax Sharma de Bleeping Computer (en) note que ChatGPT est capable d'écrire des logiciels malveillants et des courriers électroniques d'hameçonnage.

En janvier 2023, ces inquiétudes sont confirmées par la publication d'un billet de blog par Check Point Research, une société spécialisée dans la cybersécurité, indiquant que ChatGPT est d'ores et déjà utilisé par des cybercriminels pour concevoir des logiciels malveillants. L'historique des discussions d'un forum fréquenté par les cybercriminels semble montrer que certains pirates ont développé, grâce au bot de ChatGPT, un logiciel capable de voler certains types de fichiers sur une machine Windows, ou encore de créer un logiciel capable de générer de faux contenus (e-books, formations, etc.) sur le web.

Problèmes de droit d'auteur[modifier | modifier le code]

Plusieurs chercheurs émettent également des réserves concernant les manquements au droit d'auteur, étant donné que l'IA a été entraînée en utilisant un grand nombre de textes en ligne, dont la plupart sont soumis à des droits d’auteur ou à des droits voisins,.

Comme l’explique Laure Soulier, maîtresse de conférences à l'Institut des systèmes intelligents et de robotique, ChatGPT n’offre en effet aucune garantie vis-à-vis des droits d’auteur, étant donné que le robot peut « recopier des bouts de phrases ou des passages en intégralité qu’il a déjà vus lors de son apprentissage ».

Pour Thierry Poibeau, directeur de recherche au CNRS, les créateurs de l'IA « ont indexé tout ce qui était disponible sur le Web jusqu'en 2021. Même s'il y a des copyrights, ils s'assoient dessus ».

Pour la journaliste Alexandra Tauziac du journal Sud Ouest, le fait que ChatGPT ait été entraîné avec des sources probablement soumises aux droits d’auteur, sans que ces dernières soient mentionnées dans les réponses du robot, risque en tout cas de poser un problème juridique.

Inquiétudes dans le monde enseignant[modifier | modifier le code]

Le lancement de ChatGPT génère enfin un certain nombre d’inquiétudes parmi les enseignants, en raison des risques de plagiat de la part des étudiants. En effet, s’il est possible pour les professeurs d’identifier dans les devoirs les contenus tirés d’Internet qui ont fait l’objet d’un « copier-coller », les plagiats sont plus difficilement détectables avec ChatGPT qui est capable de rédiger un contenu unique,.

À Lyon, 50 % des élèves d'un cours d'handicapologie auraient ainsi utilisé l'intelligence artificielle pour rédiger leur copie. N'ayant pas de cadre pour interdire cette pratique, l'enseignant se voit alors contraint d'attribuer la moyenne à toutes ces copies.

Afin d’aider les enseignants à identifier les plagiats sans ralentir le développement de son intelligence artificielle, Open IA annonce en janvier 2023 le développement d’un outil permettant d'apposer une signature (watermark) sur les contenus générés par l'IA afin de les identifier et les différencier, bien que cette méthode puisse être facile à contourner selon Srini Devadas, professeur en sciences de l'informatique au Massachusetts Institute of Technology,,.

Controverses[modifier | modifier le code]

Une enquête de l’hebdomadaire Time publiée le 18 janvier dévoile qu’Open AI, alimente son IA ChatGPT d’exemples signalés de discours haineux et de violences sexuelles, afin qu’elle sache détecter ces formes de toxicité et ne les laisse pas passer. Pour ce faire, OpenAI a fait appel à Sama, une entreprise qui a son siège à San Francisco mais qui emploie des travailleurs au Kenya. Ceux ci doivent lire des textes sexistes et racistes ou décrivant automutilations, incestes ou contenus pédopornographiques et les classer selon leur type (racisme, violence, etc.) et ainsi apprendre à l’IA à les repérer. Sur une journée de neuf heures, chaque travailleur doit ainsi lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots, et y signaler les passages sensibles, et ne sont pour cela payés qu'entre 1,32 et 2 dollars de l’heure.

D'autre part, psychiquement marqués par ce travail, plusieurs employés racontent à Time qu’il était très difficile de pouvoir parler avec des « conseillers en bien-être » ou des médecins du travail.

Sama dément auprès du magazine toute cadence infernale et les bas salaires.

Notes et références[modifier | modifier le code]

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « ChatGPT » (voir la liste des auteurs).

  1. «  » [archive] (consulté le 11 janvier 2023)
  2. «  » [archive], sur Les Echos, 6 janvier 2023 (consulté le 7 janvier 2023).
  3. David Larousserie, «  » [archive] , sur Le Monde, 21 décembre 2022 (consulté le 9 janvier 2023).
  4. Benjamin Hue, «  » [archive] , sur RTL, 7 décembre 2022 (consulté le 9 janvier 2023).
  5. Olivier Lascar, «  » [archive], sur Sciences & Avenir, 11 janvier 2023.
  6. (en) W. Bradley Knox et Peter Stone « Augmenting Reinforcement Learning with Human Feedback [archive] » , Université du Texas à Austin. Consulté le 5 décembre 2022. .
  7. Revenir plus haut en :a b c et d (en) OpenAI, «  » [archive] , sur openai.com/blog/chatgpt/, 30 novembre 2022 (consulté le 5 décembre 2022).
  8. Revenir plus haut en :a et b (en) James Vincent, «  » [archive] , sur The Verge, 8 décembre 2022 (consulté le 8 décembre 2022).
  9. (en) John Schulman, Filip Wolski, Prafulla Dhariwal, Alec Radford et Oleg Klimov, « Proximal Policy Optimization Algorithms [archive] », 2017..
  10. (en) Wouter van Heeswijk, «  » [archive], sur Towards Data Science, 29 novembre 2022 (consulté le 5 décembre 2022).
  11. Revenir plus haut en :a et b (en) Kevin Roose, «  » [archive] , sur The New York Times, 5 décembre 2022 (consulté le 5 décembre 2022).
  12. (en) Leo Gao, Schulman et Jacob Hilton, « Scaling Laws for Reward Model Overoptimization [archive] », 2022..
  13. Revenir plus haut en :a b c et d Florian Bayard, «  » [archive] , sur 01net, 4 janvier 2023 (consulté le 9 janvier 2023).
  14. (en) Samantha Murphy Kelly, «  » [archive] , sur CNN, 5 décembre 2022 (consulté le 5 décembre 2022).
  15. Revenir plus haut en :a b et c Liam Tung, «  » [archive] , sur Zdnet, 7 décembre 2022 (consulté le 9 janvier 2023).
  16. François Fleuret, «  » [archive], sur Le temps, 11 janvier 2023.
  17. Leïla Marchand, «  » [archive] , sur Les Echos, 6 janvier 2023 (consulté le 9 janvier 2023).
  18. Samir Rahmoune, «  » [archive], sur Clubic, 9 janvier 2023.
  19. Revenir plus haut en :a b c et d Gabriel Manceau, «  » [archive], sur 01.net, 9 janvier 2023.
  20. Revenir plus haut en :a et b Julien Lausson, «  » [archive], sur Numerama, 10 janvier 2023.
  21. «  » [archive], sur 20 Minutes (Suisse), 11 janvier 2023.
  22. (en) Sharon Goldman, «  » [archive], sur VentureBeat, 4 janvier 2023.
  23. «  » [archive], sur Astuto, 21 janvier 2023 (consulté le 22 janvier 2023).
  24. (en) Samantha Lock, «  » [archive], sur The Guardian, 5 décembre 2022 (consulté le 5 décembre 2022).
  25. Benjamin Hue, «  » [archive], sur RTL, 7 décembre 2022.
  26. (en) Alex Hern, «  » [archive], sur The Guardian, 4 décembre 2022 (consulté le 5 décembre 2022).
  27. (en) Alex Kantrowitz, «  » [archive], sur Slate, 2 décembre 2022 (consulté le 5 décembre 2022).
  28. (en) Paul Krugman, «  » [archive], sur The New York Times, 6 décembre 2022 (consulté le 6 décembre 2022).
  29. Jonathan Durand Folco, «  », Le Devoir,‎ 15 décembre 2022 (lire en ligne [archive]).
  30. (en) Stephen Marche, «  » [archive], sur The Atlantic, 6 décembre 2022 (consulté le 8 décembre 2022).
  31. (en) Daniel Herman, «  », The Atlantic,‎ 9 décembre 2022 (lire en ligne [archive], consulté le 12 décembre 2022).
  32. (en) Mike Pearl, «  » [archive], sur Mashable, 3 décembre 2022 (consulté le 5 décembre 2022).
  33. Revenir plus haut en :a et b Thomas Leroy, «  » [archive], sur BFM, 12 décembre 2022.
  34. Normand Baillargeon, «  » [archive], sur Le Devoir, 17 décembre 2022.
  35. (en) James Vincent, «  » [archive], sur The Verge, 5 décembre 2022 (consulté le 5 décembre 2022).
  36. Julien Lausson, «  » [archive], sur Numerama, 5 janvier 2023.
  37. (en) Tyler Cowen, «  » [archive], sur Bloomberg News, 6 décembre 2022 (consulté le 6 décembre 2022).
  38. (en) Ax Sharma, «  » [archive], sur Bleeping Computer, 6 décembre 2022 (consulté le 6 décembre 2022).
  39. Benjamin Polge, «  » [archive], sur Les Numériques, 11 janvier 2023.
  40. Eric Le Bourlout, «  » [archive], sur 01.net, 9 janvier 2023.
  41. Revenir plus haut en :a et b Leïla Marchand, «  » [archive], sur Les Echos, 12 décembre 2022.
  42. Revenir plus haut en :a et b Alexandra Tauziac, «  » [archive], sur Sud Ouest, 21 janvier 2023.
  43. Boris Boutet, «  » [archive], sur Midi Libre, 21 janvier 2023.
  44. Revenir plus haut en :a et b Mathieu Grumiaux, «  » [archive], sur Clinicienne, 4 janvier 2023.
  45. «  » [archive], sur 01.net, 6 janvier 2023.
  46. Pierre Comet, «  » [archive] , sur Le Progrès, 10 janvier 2023 (consulté le 11 janvier 2023).
  47. Mallory Delicourt, «  » [archive], sur Clubic.com, 4 janvier 2023 (consulté le 8 janvier 2023).
  48. (en-US) Kyle Wiggers, «  » [archive], sur TechCrunch, 10 décembre 2022 (consulté le 8 janvier 2023).
  49. «  » [archive], sur Courrier international, 19 janvier 2023 (consulté le 20 janvier 2023).

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

  • ChatGPT, sur Wikimedia Commons

Liens externes[modifier | modifier le code]

  • «  » [archive], sur www.radiofrance.fr (consulté le 13 décembre 2022)
  • (en) Dario Spilimbergo, «  » [archive] [Audiostream], sirup.fm - Studierendenradiosendung von der Universität Zürich und der ETH Zürich, 23 décembre 2022 (consulté le 23 décembre 2022)

Catégories :

  • La dernière modification de cette page a été faite le 22 janvier 2023 à 13:34.
  • Droit d'auteur : les textes sont disponibles sous licence Creative Commons attribution, partage dans les mêmes conditions ; d’autres conditions peuvent s’appliquer. Voyez les conditions d’utilisation pour plus de détails, ainsi que les crédits graphiques. En cas de réutilisation des textes de cette page, voyez comment citer les auteurs et mentionner la licence. Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc., organisation de bienfaisance régie par le paragraphe 501(c)(3) du code fiscal des États-Unis.