Skip to content
Contraste entre un point lumineux isole et une riche constellation interconnectee representant la complexite du groupe
Réflexions

Le probleme des assistants IA qui ne connaissent qu'une seule personne

M
Morphee Team
· 21 min de lecture

Le postulat de l’utilisateur unique

Ouvrez n’importe quel assistant IA aujourd’hui — ChatGPT, Claude, Gemini, Copilot — et vous decouvrez un produit concu autour d’une hypothese fondamentale : il y a un utilisateur, une conversation, un historique. Vos preferences. Votre contexte. Votre memoire.

Cette hypothese est si profondement ancree dans l’architecture des produits IA modernes que la plupart des gens ne la remarquent meme pas. Elle semble naturelle. Bien sur que mon assistant IA me connait. C’est tout l’interet.

Mais prenez du recul et observez comment les gens vivent et travaillent reellement. Une mere n’est pas seulement un individu — elle fait partie d’un foyer avec un conjoint, des enfants, peut-etre des grands-parents, chacun avec ses propres horaires, besoins alimentaires, devoirs a rendre et rendez-vous medicaux. Un ingenieur logiciel n’est pas seulement un developpeur — il fait partie d’une equipe avec des depots partages, des decisions de conception qui impactent tout le monde, un savoir institutionnel disperse dans des dizaines de tetes. Une enseignante n’est pas seulement quelqu’un qui fait cours — elle orchestre trente eleves avec des rythmes d’apprentissage differents, des projets de groupe et des dynamiques sociales qui determinent qui progresse et qui decroche.

Les problemes les plus difficiles de la vie ne sont pas des problemes individuels. Ce sont des problemes de groupe. Et la generation actuelle d’assistants IA est architecturalement incapable de les resoudre.

La taxe de coordination

En 1975, Frederick Brooks publiait The Mythical Man-Month, un ouvrage sur la gestion de projets logiciels contenant une observation si durable qu’elle est devenue une loi. Brooks constatait que lorsqu’on ajoute des personnes a un projet, la charge de communication ne croit pas lineairement mais de facon combinatoire — plus precisement en n(n-1)/2. Une equipe de 3 a 3 canaux de communication. Une equipe de 5 en a 10. Une equipe de 10 en a 45. Une equipe de 15 en a 105.

Ce n’est pas seulement un probleme d’ingenierie logicielle. C’est une propriete universelle de la coordination humaine. Les recherches de Robin Dunbar sur la taille des groupes sociaux ont montre que si les humains peuvent maintenir environ 150 relations stables (le fameux “nombre de Dunbar”), la coordination effective — celle ou les gens accomplissent vraiment des choses ensemble — se produit dans des groupes beaucoup plus petits, generalement entre 3 et 15 personnes. C’est precisement la plage ou l’explosion combinatoire de Brooks commence a mordre.

Les donnees sur la facon dont cela se traduit dans le travail moderne sont edifiantes. Une etude McKinsey a revele que le travailleur du savoir moyen passe 28 % de son temps a gerer ses emails et 20 % supplementaires a chercher des informations internes ou a trouver les collegues pouvant l’aider sur des questions specifiques. Les propres recherches de Slack ont montre que leurs utilisateurs passent plus de 90 minutes par jour sur la messagerie. Le Work Trend Index de Microsoft a rapporte que 62 % des travailleurs estiment que trop de leur temps est consomme par le “travail sur le travail” — la charge de coordination qui ne produit aucun resultat direct.

Ronald Coase a recu le prix Nobel d’economie en partie pour sa theorie de la firme, qui soutenait que les entreprises existent parce que les couts de transaction de la coordination via le marche ouvert sont trop eleves. Les gens forment des organisations pour reduire les couts de coordination. Mais au sein de ces organisations, la taxe de coordination reste enorme. Elle a simplement ete internalisee.

C’est dans ce contexte que les assistants IA sont apparus. Et ils sont apparus avec un angle mort surprenant : ils peuvent aider une personne a ecrire un email plus vite, mais ils ne peuvent pas reduire le cout de coordination qui a rendu cet email necessaire.

Le probleme de la memoire transactive

En 1987, le psychologue Daniel Wegner a introduit le concept de “systemes de memoire transactive.” Wegner observait que les groupes developpent une comprehension partagee non seulement de ce qu’ils savent collectivement, mais de qui sait quoi. Dans une equipe bien rodee, vous n’avez pas besoin de tout savoir — vous devez savoir a qui demander. Une famille developpe cela naturellement : maman connait le planning du pediatre, papa connait l’historique d’entretien de la voiture, l’aine connait les dynamiques amicales de tout le monde.

La memoire transactive est l’un des mecanismes de coordination les plus puissants que les humains aient developpes. Elle permet aux petits groupes de fonctionner avec une base de connaissances effective bien superieure a ce qu’un individu seul pourrait maintenir. Les recherches ont regulierement montre que les groupes dotes de systemes de memoire transactive bien developpes surpassent des groupes d’individus tout aussi talentueux mais depourvus de cette meta-connaissance partagee.

Voici le probleme : chaque assistant IA individuel detruit la memoire transactive au lieu de l’augmenter. Quand chaque personne d’un groupe possede sa propre IA privee, chacune accumule un contexte prive invisible pour les autres. L’IA devient un silo de connaissances, pas un pont de connaissances. Plus l’IA devient utile a chaque individu, plus elle fragmente l’intelligence collective du groupe.

Ce n’est pas un probleme mineur d’experience utilisateur qu’on peut resoudre avec une fonction de partage. C’est une defaillance architecturale. L’IA a ete concue pour une personne, et aucun ajout de collaboration ne changera cette fondation.

Trois scenarios d’echec

L’ecart entre l’IA individuelle et les besoins collectifs se comprend le mieux a travers des exemples concrets. Voici trois scenarios que des millions de personnes rencontrent chaque jour, et qu’aucun assistant IA actuel ne peut resoudre correctement.

Scenario 1 : L’effondrement de la planification familiale

Prenons un foyer avec deux parents actifs et deux enfants scolarises. Un dimanche soir, les deux parents demandent independamment a leurs assistants IA de planifier la semaine a venir. L’IA de maman connait ses engagements professionnels, le rendez-vous chez le dentiste pris mardi dernier et la liste de courses qu’elle constitue progressivement. L’IA de papa connait son programme de deplacements, la voiture qui doit faire sa vidange et l’entrainement de football auquel il a inscrit l’enfant.

Aucune des deux IA ne connait les engagements de l’autre parent. Aucune ne sait que mercredi est une journee a horaire amenage a l’ecole, ce qui signifie que quelqu’un doit etre a la maison a midi. Aucune ne peut signaler le conflit entre le rendez-vous chez le dentiste et l’entrainement de football, tous deux a 16h le jeudi, necessitant deux conducteurs alors qu’il n’y a qu’une seule voiture.

Le resultat est previsible : deux plannings soigneusement optimises mais mutuellement incompatibles, decouverts le lundi matin lors d’une conversation precipitee autour du cafe. L’IA n’a pas reduit le cout de coordination. Elle l’a augmente, parce que chaque parent a fait confiance a son assistant pour produire un planning viable et a ete pris au depourvu quand celui-ci n’a pas pris en compte l’autre moitie du foyer.

Multipliez cela par les quelque 30 millions de foyers en France, et vous commencez a percevoir l’ampleur du probleme. Chaque famille avec deux adultes ou plus navigue dans cet echec de coordination chaque semaine, parce que l’IA qu’ils utilisent n’a pas ete concue pour savoir que d’autres personnes existent.

Scenario 2 : La crise de connaissances au depart d’un collaborateur

Une equipe produit de cinq personnes utilise des assistants IA individuels depuis un an. Chaque membre a accumule de longs historiques de conversation : decisions d’architecture, analyses de retours clients, notes d’investigation de bugs, recherche concurrentielle. Les assistants IA sont devenus veritablement utiles — chacun detient des mois de connaissances contextuelles sur le projet.

Puis un membre de l’equipe quitte l’entreprise.

Du jour au lendemain, 20 % des connaissances accumulees par l’equipe, augmentees par l’IA, disparaissent. Non pas parce qu’elles ont ete supprimees, mais parce qu’elles n’ont jamais ete partagees. Elles n’existaient que dans l’historique de conversation prive d’une personne avec son assistant personnel. Les membres restants ne savent meme pas quelles questions poser, parce qu’ils ne savent pas quelles connaissances ont ete perdues.

C’est une version moderne d’un probleme que les theoriciens des organisations etudient depuis des decennies : le scenario du “facteur bus”. Mais l’IA l’a aggrave, pas ameliore. Avant les assistants IA, au moins une partie du savoir institutionnel vivait dans des documents partages, des wikis et des fils d’emails que d’autres pouvaient consulter. Desormais, les connaissances les plus nuancees et contextuelles — celles qui emergent d’une conversation prolongee avec une IA sur des problemes complexes — sont enfermees dans le format le plus prive et le moins accessible qui soit.

L’ironie est mordante. L’IA etait censee democratiser la connaissance. Au lieu de cela, parce qu’elle a ete concue pour des individus, elle a cree une nouvelle categorie de silos de connaissances encore plus difficiles d’acces que les anciens.

Scenario 3 : Le paradoxe de la personnalisation en classe

Une enseignante de mathematiques en college souhaite utiliser l’IA pour fournir des retours personnalises a ses 30 eleves. Elle demande a son assistant IA de generer des commentaires cibles sur le travail de chaque eleve, adaptes a leur niveau et style d’apprentissage individuels.

L’IA fait un travail correct au niveau individuel. Mais elle echoue sur toutes les dimensions qui necessitent une conscience du groupe. Elle ne sait pas que les eleves 7, 12 et 23 forment un groupe de travail et ont developpe ensemble un modele mental (errone) des fractions qui doit etre corrige en tant qu’ensemble. Elle ne sait pas que l’eleve 15 a ete absent pendant deux semaines et a besoin d’un rattrapage fondamentalement different de ce qui conviendrait a un eleve present mais en difficulte. Elle ne peut pas maintenir de coherence — les retours generes pour des erreurs similaires varient enormement d’un eleve a l’autre parce que chaque reponse est generee isolement.

Plus fondamentalement, l’IA ne peut pas aider l’enseignante dans la partie la plus difficile de son metier : comprendre les tendances a travers les eleves. Quels concepts posent collectivement probleme a la classe ? Quels eleves beneficieraient d’etre mis en binome ? Comment le cours de demain devrait-il s’adapter en fonction des performances agregees d’aujourd’hui ? Ce sont des questions inheremment collectives, et une IA concue pour les interactions individuelles n’a aucun cadre pour y repondre.

Ce que “nativement collectif” signifie vraiment

Dire “l’IA devrait fonctionner pour les groupes” est facile. Le construire est difficile, parce que cela exige de repenser les hypotheses a chaque couche de l’architecture. Une IA nativement collective n’est pas une fonctionnalite ajoutee a un produit mono-utilisateur. C’est un type de systeme different.

Memoire partagee avec vues individuelles

L’exigence fondamentale est une architecture de memoire partagee au niveau du groupe mais presentee a travers des vues individuelles. Le systeme maintient une comprehension unifiee des connaissances du groupe — emplois du temps, preferences, decisions, taches en cours, contexte historique — mais chaque membre voit une perspective filtree et adaptee a son role.

C’est plus subtil qu’il n’y parait. Il ne s’agit pas seulement de controle d’acces, bien que cela compte. Il s’agit de pertinence. Quand un parent interroge l’IA sur les plans de diner, elle devrait faire emerger le fait qu’un enfant a une allergie aux noix et qu’un autre a entrainement de football jusqu’a 18h30, sans pour autant afficher la conversation detaillee sur le budget que les parents ont eue la semaine derniere. Le meme graphe de connaissances sous-jacent, rendu differemment selon qui pose la question et ce dont il a besoin.

Dans Morphee, cela est mis en oeuvre a travers ce que nous appelons les Espaces — des contextes isoles au sein d’un groupe, pouvant etre imbriques, chacun avec sa propre memoire et ses permissions. Une famille pourrait avoir un Espace partage pour la logistique du foyer, un Espace prive pour la planification financiere parentale et des Espaces individuels pour les devoirs de chaque enfant. L’IA maintient la coherence a travers tous ces espaces tout en respectant les frontieres entre eux.

Coordination multi-membres et resolution de conflits

Une IA nativement collective doit pouvoir raisonner sur les interactions entre les membres, pas seulement servir chacun isolement. Quand maman ajoute un rendez-vous chez le dentiste et papa ajoute un entrainement de football au meme moment, l’IA ne devrait pas simplement enregistrer les deux evenements — elle devrait detecter le conflit, comprendre la contrainte (une voiture, deux destinations) et proposer des solutions (decaler l’un, organiser un covoiturage, demander a un voisin).

Cela necessite que le systeme maintienne des modeles des contraintes, preferences et priorites de chaque membre, et applique ces modeles lors de l’evaluation des actions potentielles. C’est un probleme computationnel fondamentalement different de l’assistance individuelle, plus proche de la planification multi-agents que de la conversation avec un chatbot.

La resolution de conflits est particulierement importante. Les groupes ont des desaccords. Une equipe peut avoir des priorites concurrentes pour une ressource partagee. Les membres d’une famille peuvent avoir des preferences d’emploi du temps contradictoires. L’IA a besoin d’un cadre pour faire emerger ces conflits tot, presenter les options de maniere equitable et aider le groupe a prendre des decisions — sans outrepasser son role ni prendre parti.

Permissions basees sur les roles

Les groupes ne sont pas plats. Ils ont une structure : parents et enfants, enseignants et eleves, managers et subordonnes, proprietaires et membres. Une IA nativement collective doit comprendre et appliquer ces roles.

Dans Morphee, le modele de permissions inclut des roles distincts — proprietaire, parent, membre, enfant — chacun avec des capacites differentes. Un enfant peut interagir avec l’IA et acceder a du contenu adapte a son age dans son Espace, mais ne peut pas modifier les parametres familiaux ni consulter les informations financieres. Un enseignant peut voir les performances agregees des eleves et le travail individuel, mais les eleves ne voient que le leur. Ce ne sont pas des restrictions arbitraires ; elles refletent les structures sociales reelles qui font fonctionner les groupes.

Reussir les permissions est essentiel non seulement pour la vie privee mais aussi pour la confiance. Une famille n’adoptera pas un assistant IA partage si elle n’est pas certaine que son adolescent ne verra pas les conversations de planification financiere, ou que la baby-sitter n’aura pas acces aux discussions privees des parents.

Notifications proactives aux membres concernes

Les assistants IA individuels sont reactifs. Vous posez une question, vous obtenez une reponse. Mais la coordination de groupe necessite souvent une communication proactive — faire emerger l’information aux bonnes personnes au bon moment, sans attendre qu’on la demande.

Quand un membre de l’equipe termine une tache qui debloque trois autres membres, l’IA devrait les notifier. Quand l’ecole d’un enfant annonce une sortie anticipee, l’IA devrait alerter le parent disponible. Quand une enseignante identifie qu’un groupe de travail bloque sur le meme concept, elle devrait suggerer une intervention.

C’est la ou la valeur du contexte partage se demultiplie le plus spectaculairement. Parce que l’IA comprend l’ensemble du contexte du groupe — qui est responsable de quoi, qui est impacte par quels changements, qui a besoin de savoir quoi et quand — elle peut agir comme une couche de coordination intelligente qui reduit la charge de communication identifiee par Brooks il y a cinquante ans.

Contre-arguments, traites honnetement

Tout argument en faveur d’une nouvelle categorie de produit doit affronter les objections evidentes.

”On ne peut pas simplement partager des conversations ChatGPT ?”

Vous pouvez partager un lien vers une conversation ChatGPT, et l’autre personne peut la lire. Mais ce n’est pas de l’intelligence collective — c’est le transfert d’un document. Le destinataire recoit un instantane statique sans possibilite de construire sur le contexte partage. Il ne peut pas poser de questions de suivi qui s’appuient a la fois sur ses propres connaissances et sur la conversation partagee. Il ne peut pas contribuer des informations qui mettent a jour la comprehension commune. Et surtout, l’IA n’a aucune conscience que cette conversation est desormais pertinente pour plusieurs personnes ayant des besoins et perspectives differents.

Partager une conversation est a l’IA nativement collective ce qu’envoyer un tableur par email est a Google Sheets. Cela transfere techniquement de l’information, mais cela ne permet pas la collaboration.

”Et les fonctionnalites d’equipe dans des outils comme Notion AI, Slack AI ou Microsoft Copilot ?”

Ces outils ajoutent des capacites IA a des plateformes de collaboration existantes, ce qui est precieux mais architecturalement limite. Slack AI peut rechercher dans votre historique Slack. Notion AI peut resumer vos pages Notion. Microsoft Copilot peut rediger des emails a partir de vos donnees Microsoft 365.

Mais aucun de ces systemes ne maintient une comprehension unifiee et persistante du groupe en tant qu’entite. Ce sont des assistants IA individuels qui ont acces a des sources de donnees partagees. Ils ne peuvent pas raisonner sur les relations entre les membres du groupe, resoudre les conflits entre priorites concurrentes ou coordonner proactivement entre les personnes. Ce sont des moteurs de recherche pour donnees partagees, pas de l’intelligence pour des problemes partages.

Plus fondamentalement, ces outils sont concus pour le monde professionnel. Ils n’ont aucun modele pour les familles, les classes, les associations ou les dizaines d’autres configurations de groupe qui composent la vie humaine. Le probleme de l’IA de groupe est bien plus large que la collaboration en entreprise.

”Ce n’est pas juste une base de donnees multi-utilisateurs avec un chatbot par-dessus ?”

Cette objection sous-estime la difficulte du probleme. Une base de donnees multi-utilisateurs peut stocker des donnees partagees. Mais une IA nativement collective necessite de comprendre la signification des donnees partagees dans le contexte du role, de l’historique et des besoins de chaque membre. Elle necessite la detection de conflits, la coordination proactive, des reponses adaptees aux permissions et la capacite de maintenir un contexte coherent a travers de multiples interactions simultanees avec differents membres.

La base de donnees est la partie facile. La couche d’intelligence — celle qui rend la memoire partagee utile plutot qu’ecrasante, qui sait quoi faire emerger et quoi retenir, qui peut coordonner sans outrepasser ses prerogatives — c’est la que reside le veritable defi technique.

L’opportunite de categorie

L’histoire du logiciel est une histoire d’hypotheses renversees. Les premiers traitements de texte supposaient un auteur par document — puis Google Docs a prouve que la collaboration en temps reel n’etait pas seulement une fonctionnalite mais une categorie de produit differente qui ouvrait de nouveaux modes de travail. Les premieres messageries supposaient une communication un-a-un — puis Slack a prouve que la messagerie de groupe par canaux n’etait pas simplement du chat multi-utilisateurs mais un paradigme different de communication organisationnelle.

Les assistants IA d’aujourd’hui en sont au stade du “traitement de texte mono-auteur”. Ils sont puissants, utiles et architecturalement incapables de resoudre les problemes de groupe qui dominent la vie reelle.

L’opportunite n’est pas d’ajouter des fonctionnalites de groupe a un assistant IA individuel. C’est de construire, de zero, un systeme IA dont l’unite fondamentale d’operation est le groupe plutot que l’individu. C’est un produit different, une architecture differente et, en fin de compte, un marche different.

Considerez l’economie. Chaque individu appartient a plusieurs groupes. Une personne peut utiliser un assistant IA personnel pour sa productivite individuelle. Mais cette meme personne fait aussi partie d’une famille qui a besoin de coordination domestique, d’une equipe qui a besoin de coordination de projet, peut-etre d’une classe ou d’une association ou d’un groupe de voisinage. Chacun de ces groupes represente un cas d’usage distinct avec une disposition a payer distincte.

Les groupes ont aussi des dynamiques de retention plus fortes que les individus. Quand une personne arrete d’utiliser un assistant IA personnel, elle perd son propre historique — ennuyeux, mais surmontable. Quand un groupe arrete d’utiliser un assistant IA partage, tout le monde perd le contexte partage, la couche de coordination, les connaissances institutionnelles accumulees. Les couts de changement sont inheremment plus eleves parce que la valeur est distribuee entre plusieurs personnes.

Et les groupes ont des mecaniques de croissance naturelles. Quand un membre d’un groupe adopte un assistant IA partage et en demontre la valeur, les autres membres sont fortement incites a le rejoindre — non pas a cause d’un programme de parrainage, mais parce que le produit est litteralement plus utile avec plus de participants. Ce n’est pas une boucle virale ; c’est un effet de reseau de coordination.

La vie privee comme probleme de groupe

Une dimension qui merite une attention particuliere est la vie privee. La confidentialite de l’IA individuelle est relativement simple : vos donnees vous appartiennent, et la question est de savoir si vous faites confiance au fournisseur pour les proteger. La confidentialite de l’IA de groupe est exponentiellement plus complexe.

Dans un groupe, la vie privee n’est pas binaire — elle est relationnelle. Certaines informations devraient etre visibles par tous les membres (le calendrier familial). Certaines devraient etre visibles par un sous-ensemble (la planification financiere parentale). Certaines ne devraient etre visibles que par une seule personne (le journal intime d’un enfant). Et les frontieres entre ces categories ne sont pas statiques — elles evoluent selon le contexte, l’urgence et les dynamiques changeantes du groupe.

Une IA nativement collective doit gerer cette complexite sans devenir contraignante. Les utilisateurs ne devraient pas avoir a configurer manuellement les parametres de confidentialite pour chaque information. Le systeme devrait inferer les frontieres appropriees a partir des roles et du contexte, tout en permettant facilement de modifier les parametres par defaut si necessaire.

C’est pourquoi une architecture auto-hebergee, axee sur la vie privee n’est pas un simple avantage pour l’IA de groupe — c’est un prerequis. Quand une IA detient le contexte partage d’une famille ou d’une equipe entiere, les enjeux d’une violation de confidentialite ne concernent pas l’embarras d’une seule personne mais la confiance de tout un groupe. Les donnees doivent resider sur une infrastructure que le groupe controle, pas sur les serveurs d’un tiers.

La suite

Nous construisons Morphee parce que nous pensons que le postulat de l’utilisateur unique en IA est aussi limitant aujourd’hui que le postulat de l’auteur unique l’etait pour les documents avant Google Docs. La technologie des assistants IA individuels est impressionnante et s’ameliore rapidement. Mais l’architecture pour l’IA de groupe — memoire partagee, coordination multi-membres, permissions basees sur les roles, intelligence proactive a travers un groupe de personnes aux besoins differents — n’existe quasiment pas.

Les problemes sont reels. Les familles perdent des heures chaque semaine en coordination qu’une IA consciente du groupe pourrait gerer en minutes. Les equipes perdent du savoir institutionnel a chaque depart, parce qu’il etait enferme dans des conversations IA individuelles. Les enseignants passent plus de temps sur la logistique que sur l’enseignement, parce que leurs outils ne peuvent pas raisonner sur une classe en tant que systeme connecte.

La recherche confirme ce que le bon sens suggere : les humains sont des creatures de groupe qui se coordonnent en groupes de 3 a 15 personnes, et le cout de coordination de ces groupes croit de facon combinatoire avec leur taille. Les systemes de memoire transactive — la connaissance partagee de qui sait quoi — sont parmi les outils cognitifs les plus puissants que possedent les groupes. Et pourtant, chaque assistant IA sur le marche aujourd’hui ignore completement les groupes, traitant chaque utilisateur comme un individu isole sans connexions, sans contexte partage et sans besoins de coordination.

Nous pensons que cela apparaitra, avec le recul, comme une lacune evidente. La question n’est pas de savoir si l’IA nativement collective existera, mais qui la construira bien et la construira en premier. Les defis techniques sont substantiels — architectures de memoire partagee, moteurs de resolution de conflits, systemes de permissions respectueux de la vie privee, coordination proactive multi-membres — mais ils sont resolubles. Et la recompense pour les avoir resolus n’est pas une amelioration incrementale des assistants IA existants. C’est une categorie d’outils entierement nouvelle qui augmente l’unite fondamentale de la reussite humaine : le petit groupe.

Si vous faites partie d’une famille, d’une equipe, d’une classe ou de n’importe quel groupe qui passe trop de temps a se coordonner et pas assez sur le travail qui compte, nous construisons cela pour vous. Rejoignez la liste d’attente et aidez-nous a faconner ce que deviendra l’IA nativement collective.

Decouvrez nos cas d’usage pour voir comment Morphee fonctionne pour les familles, les equipes et les classes.

Partager cet article
M

Morphee Team

Morphee Team

Articles similaires

Chiffré Conforme RGPD Aucun tracking IA locale Open source