En octobre 2025 apparaît une nouvelle encyclopédie en ligne se présentant comme une alternative à Wikipedia : Grokipedia.
Le nom peut sembler familier. Et pour cause : Grokipedia repose entièrement sur Grok, l’intelligence artificielle développée par la société xAI, fondée par Elon Musk.
Il ne s’agit pas d’un simple outil d’assistance à la rédaction : l’ensemble des articles est rédigé, synthétisé et mis à jour par l’IA elle-même, sans contribution directe d’une communauté humaine comparable à celle de Wikipedia.
Comparaison avec Wikipedia
À la différence de Wikipedia, qui repose sur une communauté mondiale de contributeurs humains et sur un ensemble de règles éditoriales établies (neutralité de point de vue, vérifiabilité, hiérarchie des sources), Grokipedia adopte une approche centralisée et automatisée.
Les articles y sont générés et maintenus par une intelligence artificielle unique, sans processus éditorial communautaire comparable. La validation des contenus ne repose donc pas sur un consensus humain, mais sur des mécanismes algorithmiques internes.
Wikipedia privilégie les sources secondaires reconnues et applique des règles strictes concernant les sources controversées. Grokipedia, de son côté, agrège et synthétise automatiquement des contenus provenant de sources variées, dont la sélection et la pondération relèvent du modèle d’IA.
Fonctionnement général
Le fonctionnement de Grokipedia repose sur le modèle d’intelligence artificielle Grok. Celui-ci est chargé de :
- générer les articles,
- les mettre à jour,
- résumer ou reformuler des contenus existants,
- intégrer de nouvelles informations disponibles en ligne.
Les utilisateurs ne modifient pas directement les pages. Ils peuvent, selon les cas, signaler des erreurs ou suggérer des améliorations, lesquelles sont ensuite traitées automatiquement par l’IA. Il n’existe pas de comité éditorial humain permanent chargé de la relecture systématique des articles.
Biais idéologiques et conception de l’IA
Comme toute intelligence artificielle, Grok est conçue, entraînée et paramétrée par des équipes humaines. À ce titre, elle hérite nécessairement de choix techniques, culturels et idéologiques effectués lors de sa conception : sélection des données d’entraînement, pondération des sources, priorisation de certains types de discours.
Ainsi, bien que Grokipedia revendique une approche factuelle et objective, plusieurs observateurs soulignent que l’absence de diversité éditoriale humaine peut renforcer certains biais plutôt que les corriger, ceux-ci étant reproduits de manière cohérente et à grande échelle par l’algorithme.
Qualité des articles et contenu généré par IA
La qualité des articles de Grokipedia est variable selon les sujets. Les pages factuelles et consensuelles tendent à être structurées et lisibles, tandis que les sujets complexes, récents ou controversés présentent davantage de limites.
Un enjeu plus large concerne la multiplication des contenus générés par intelligence artificielle sur Internet. Ces contenus servant à leur tour de données d’entraînement pour de nouveaux modèles, certains chercheurs évoquent un phénomène de modèle autophage, dans lequel l’IA se nourrit de productions antérieures d’IA, entraînant une dégradation progressive de la qualité, de la diversité et de la fiabilité de l’information.
Ce phénomène, parfois qualifié d’« IA dégénérative », soulève des interrogations sur la survie à long terme de ce type d’encyclopédie automatisée.

Hallucinations de l’intelligence artificielle
Comme d’autres systèmes d’IA générative, Grok peut produire des hallucinations, c’est-à-dire des informations incorrectes, approximatives ou inventées, présentées sous une forme convaincante.
Dans un contexte encyclopédique, ces hallucinations peuvent prendre la forme de références inexistantes, de faits non avérés ou de synthèses erronées, d’autant plus difficiles à détecter qu’elles sont formulées dans un style neutre et assuré.
L’absence de relecture humaine systématique accroît le risque que ces erreurs persistent ou soient amplifiées lors de mises à jour ultérieures.
Mise en avant de théories du complot
Plusieurs analyses ont relevé que certains articles de Grokipedia accordent une visibilité significative à des théories du complot ou à des interprétations marginales, parfois sans mise en contexte critique suffisante.
Ces contenus ne sont pas nécessairement présentés comme des faits établis, mais leur traitement peut donner l’impression d’une légitimité équivalente à celle de sources académiques ou journalistiques reconnues.
Ce phénomène s’explique notamment par le fonctionnement algorithmique de l’IA, qui peut accorder de l’importance à la fréquence ou à la visibilité d’un discours en ligne, indépendamment de sa validité scientifique ou historique.

Conclusion
Grokipedia illustre une évolution notable des modes de production du savoir encyclopédique, marquée par une automatisation quasi totale de la rédaction et de la mise à jour des contenus. Ce modèle permet une diffusion rapide et massive de l’information, mais soulève également des interrogations importantes quant à la neutralité, à la fiabilité et à la pérennité des connaissances produites.
L’absence de relecture humaine systématique, la dépendance à des sources sélectionnées par des algorithmes et les limites inhérentes aux modèles d’intelligence artificielle posent des défis comparables à ceux rencontrés dans d’autres usages de l’IA générative.
Dans ce contexte, Grokipedia constitue à la fois une expérimentation technologique et un objet d’étude pour comprendre les conséquences de l’automatisation de l’information à grande échelle.
Son développement s’inscrit ainsi au croisement des enjeux technologiques, éditoriaux et sociétaux liés à l’intelligence artificielle et à la transmission des savoirs.

