ChatGPT, Character.AI, et autres intelligences artificielles

Un MCP c'est juste un bout de code qui tourne sur un serveur, toutes les IA chinoises agentiques peuvent en appeler : c'est une fonctionnalité de l'agent (la CLI) et non du LLM. Donc tu peux utiliser GLM4.7 ou MiniMax 2.1 avec tes MCP dans Claude Code ou OpenCode ou n'importe quelle autre CLI et configurer la CLI pour charger les MCP dont tu as besoin. Regardes dans les docs pour voir comment configurer globalement. Le plus pratique étant Context7 pour la doc fraîche.
 
c'est une fonctionnalité de l'agent (la CLI) et non du LLM. Donc tu peux utiliser GLM4.7 ou MiniMax 2.1 avec tes MCP dans Claude Code ou OpenCode ou n'importe quelle autre CLI et configurer la CLI pour charger les MCP dont tu as besoin.

certes
1490886827-risibo.png
 
Si tu as un laptop un peu robuste avec CPU AMD AI / RAM élevée / gros GPU (encore mieux si tu as un desktop) tu peux utiliser LM Studio (et d'autres) qui te permettent de faire tourner ton modèle open source en local. Différents modèle chinois dispo DeepSeek notamment mais Qwen3 est plus approprié pour appeler des outils.

Du coup a part le cout du matos, c'est gratuit...


Sinon en payant tu peux utiliser des hébergeurs d'inférence comme Groq ("racheté" par Nvidia la semaine dernière il me semble et à ne pas confondre avec l'IA de Musk).

Groq propose le MCP natif en beta depuis septembre et les modèles supportant MCP sur GroqCloud incluent notamment :
Kimi K2 0905
Qwen 3 32B
Llama 4 Maverick / Scout
Llama 3.3 70B
GPT-OSS-120B / 20B

Un MCP c'est juste un bout de code qui tourne sur un serveur, toutes les IA chinoises agentiques peuvent en appeler : c'est une fonctionnalité de l'agent (la CLI) et non du LLM. Donc tu peux utiliser GLM4.7 ou MiniMax 2.1 avec tes MCP dans Claude Code ou OpenCode ou n'importe quelle autre CLI et configurer la CLI pour charger les MCP dont tu as besoin. Regardes dans les docs pour voir comment configurer globalement. Le plus pratique étant Context7 pour la doc fraîche.
Merci, mais ce ne serait pas pour tourner en local/CLI ; ce serait pour appeler un MCP via une IA dans le navigateur.

En fait, je pense faire un démonstrateur pour mes clients démontrant que l'IA peut utiliser mon produit avec des prompts, ce qui ouvre beaucoup de possibilités. C'est en théorie possible depuis claude.ai et chatgpt.com

En gros je cherche ça mais pour une IA "grand public" chinoise, du genre Deepseek, Qwen, etc..

MCP.png
 
Merci, mais ce ne serait pas pour tourner en local/CLI ; ce serait pour appeler un MCP via une IA dans le navigateur.

En fait, je pense faire un démonstrateur pour mes clients démontrant que l'IA peut utiliser mon produit avec des prompts, ce qui ouvre beaucoup de possibilités. C'est en théorie possible depuis claude.ai et chatgpt.com

En gros je cherche ça mais pour une IA "grand public" chinoise, du genre Deepseek, Qwen, etc..

Voir la pièce jointe 140425
Ok j'avais pas compris désolé.
Non les IA chinoises ont pas cette fonction mais tu peux installer un truc comme LibreChat sur un petit VPS, brancher une IA chinoise dessus via API, et connecter ton MCP.
 
Ok j'avais pas compris désolé.
Non les IA chinoises ont pas cette fonction mais tu peux installer un truc comme LibreChat sur un petit VPS, brancher une IA chinoise dessus via API, et connecter ton MCP.


Une seule personne peut réaliser un film qui rivalise avec ceux mettant en scène des acteurs réels. Cela pourrait bien détruire Hollywood.
:grin: 😖😁
Les utilisateurs chinois disposant d'un téléphone mobile chinois peuvent l'utiliser gratuitement. Ne manquez pas cette occasion.
 


Une seule personne peut réaliser un film qui rivalise avec ceux mettant en scène des acteurs réels. Cela pourrait bien détruire Hollywood.
:grin: 😖😁
Les utilisateurs chinois disposant d'un téléphone mobile chinois peuvent l'utiliser gratuitement. Ne manquez pas cette occasion.
Ah ça y'est l'IA c'est cool quand ça détruit les USA ?

Sinon les IA chinoises qui sortent là c'est un peu du délire. C'est Noël tous les jours.
Zhipu, MiniMax et Moonshot qui balancent bombe sur bombe depuis septembre c'est génial, on se régale.
Et là y'a Deepseek qui va lâcher la v4 cette semaine.
 
Sinon les IA chinoises qui sortent là c'est un peu du délire. C'est Noël tous les jours.
Zhipu, MiniMax et Moonshot qui balancent bombe sur bombe depuis septembre c'est génial, on se régale.
Et là y'a Deepseek qui va lâcher la v4 cette semaine.
Sais-tu comment utiliser GLM 5 avec l'abonnement Zhipu.ai / BigModel dans OpenCode?
Ça fonctionne très bien avec 4.7, mais avec la v5 sortie il y a quelques jours j'ai comme réponse:

当前订阅套餐暂未开放GLM-5权限 [retrying in 5s attempt #3]
 
Ah ça y'est l'IA c'est cool quand ça détruit les USA ?

Sinon les IA chinoises qui sortent là c'est un peu du délire. C'est Noël tous les jours.
Zhipu, MiniMax et Moonshot qui balancent bombe sur bombe depuis septembre c'est génial, on se régale.
Et là y'a Deepseek qui va lâcher la v4 cette semaine.
J'ai entendu dire dans le discours du premier ministre que la plupart des IA chinoises sont opensource...
Que donc tout le monde pouvait acquérir librement cette base pour développer ce qu'il voulait.
Qu'elles étaient de ce point de vue offertes aimablement au monde.

Vous qui êtes de la partie, qu'en dites-vous ?
 
J'ai entendu dire dans le discours du premier ministre que la plupart des IA chinoises sont opensource...
Que donc tout le monde pouvait acquérir librement cette base pour développer ce qu'il voulait.
Qu'elles étaient de ce point de vue offertes aimablement au monde.

Vous qui êtes de la partie, qu'en dites-vous ?
Mes 2 cents: le terme open source est usurpé si c'est juste mis en libre téléchargement mais que le résultat n'est pas l'oeuvre d'une collaboration publique (sur les données d'entraînement, l'architecture, etc.).

Mais effectivement n'importe qui ayant un ordinateur puissant peut les faire tourner en locale (au prix d'une réponse plus ou moins lente si ce n'est pas un ordinateur hyper puissant: mais j'imagine que cela sera de moins en moins vrai)

Et ma conclusion c'est que vraiment tout est peu cher dans l'IA en ce moment avec des résultats hallucinants, tout me porte à penser que l'IA aura à terme un coût proche de 0 alors qu'elle aura été bâtie sur des valorisations hallucinantes me laissant dubitatif sur la pérennité des géants qui se forment actuellement.