Pour une IA souveraine et frugale

Cet article est né d'un échange philosophique sur les intentions profondes qui guident mAIstrow. Plutôt qu'un article technique, c'est une réflexion sur le "pourquoi" : pourquoi concevoir une IA souveraine, frugale et résiliente, et en quoi cette démarche constitue une réponse aux dérives actuelles.

Une réponse à la centralisation excessive de l'IA

Au cœur de la philosophie de mAIstrow se trouve une profonde méfiance envers la centralisation de l'IA, telle qu'elle est incarnée par les approches dominantes des GAFAM.

Je m'inquiète de voir les grands modèles concentrer le pouvoir dans les mains de quelques acteurs, comme l'ont fait les moteurs de recherche avant eux. Cette centralisation pose plusieurs problèmes :

Biais intentionnels et opacité. Les modèles actuels, souvent entraînés pour "corriger" des biais ou aligner leurs réponses sur une certaine morale, introduisent des biais intentionnels qui peuvent dériver vers des formes de censure ou de manipulation. On sait déjà que Google a l'intention d'introduire de la publicité dans ses réponses. Aujourd'hui, je comprends ces corrections. Mais rien ne dit que ça ne débordera pas demain.

Dépendance économique et géopolitique. Dans un contexte mondial anxiogène -- guerres commerciales, hausses de tarifs, interruptions de service -- je veux que mes clients ne soient pas dépendants d'une hausse soudaine des coûts, de restrictions douanières, ou d'un arrêt de service décidé à des milliers de kilomètres. mAIstrow est conçu comme une alternative souveraine.

Ma réponse à ces défis : une IA locale, transparente et indépendante, qui redonne le contrôle aux utilisateurs.

Frugalité et efficacité énergétique

Je critique la course au gigantisme des LLM, qui consomment des quantités énormes d'énergie pour des tâches souvent triviales.

J'aime à dire : qu'est-ce qu'on s'en cogne qu'un modèle sache quelle température il faisait au Nicaragua en 1942. Il suffit d'aller chercher l'information sur internet. Le "savoir encyclopédique" d'un modèle est une aberration écologique. Pourquoi utiliser un LLM énergivore pour des opérations mathématiques quand une calculatrice les résout avec une efficacité de plusieurs ordres de grandeur supérieure ?

Par contre, qu'un modèle sache formuler une idée, planifier un projet, utiliser des outils pour compenser ses limites -- ça, c'est pertinent.

Les Small Language Models (SLM) sont l'avenir. Ils incarnent une approche :

Autonomie et transparence : redonner le pouvoir à l'utilisateur

Ma philosophie est profondément marquée par une volonté d'autonomie. Je veux que l'utilisateur ait le contrôle total sur son IA, ses données et ses règles.

Transparence. Les utilisateurs doivent comprendre comment les résultats sont produits et pouvoir ajuster les comportements sans réentraîner un modèle entier. Les règles éthiques ou les filtres anti-biais doivent être explicites et modifiables, contrairement aux approches actuelles où les biais sont corrigés de manière opaque.

Autonomie. L'utilisateur doit pouvoir définir ses propres priorités, choisir les SLM à utiliser, ou ajuster les règles via des configurations simples. À chaque fois, l'idée c'est de rendre la main à l'utilisateur. Ça fait partie de ma philosophie et de ma volonté de le rendre complètement indépendant.

Je ne veux pas un outil qui enferme. Je veux un outil qui libère.

Le collège de SLM : une IA modulaire et collaborative

L'un des concepts les plus originaux de cette philosophie est celui du "collège de SLM" -- un collège des sages. Plusieurs SLM spécialisés travaillent ensemble :

Ce collège est coordonné par un orchestrateur qui décide dynamiquement quels SLM mobiliser en fonction de la requête. Le système peut même être récursif : un sous-collège de SLM gère la planification elle-même.

L'avantage de cette approche, contrairement à ce qui est fait dans les modèles aujourd'hui, c'est qu'elle est transparente. On peut l'ajuster sans avoir besoin de réentraîner un modèle. Chaque étape est explicite et paramétrable. C'est presque une architecture d'IA démocratique, où les décisions sont prises collectivement, de manière ajustable.

Résilience et pragmatisme

Je veux un système capable de survivre aux aléas -- déconnexions, pannes, pics de charge -- tout en restant simple à déployer. Mais je suis aussi pragmatique : il faut remplir le frigo. On commence par les choses atteignables rapidement. Du YAML ou du JSON pour la configuration, et on construit petit à petit l'interface dont on a besoin.

L'utilisateur n'a pas besoin de tout ça immédiatement. Ce que je veux, c'est qu'à la fin, il ait ça. Mais pour y arriver, il faut que l'utilisateur adhère au concept et qu'il achète le produit. L'idée, c'est d'être pragmatique, tout simplement.

Une vision pour un monde incertain

mAIstrow s'inscrit dans un contexte plus large : un monde marqué par des incertitudes économiques, géopolitiques et environnementales. Le projet incarne une vision où l'IA :

Je ne cherche pas à concurrencer les GAFAM sur leur terrain. Je propose une alternative viable, adaptée aux réalités des PME et ETI. Une IA qui respecte l'utilisateur, l'environnement, et les contraintes économiques, tout en restant performante et résiliente.

C'est de l'innovation responsable. Et c'est ce que j'ai envie de construire.