ChatGPT, Character.AI, et autres intelligences artificielles

Un MCP c'est juste un bout de code qui tourne sur un serveur, toutes les IA chinoises agentiques peuvent en appeler : c'est une fonctionnalité de l'agent (la CLI) et non du LLM. Donc tu peux utiliser GLM4.7 ou MiniMax 2.1 avec tes MCP dans Claude Code ou OpenCode ou n'importe quelle autre CLI et configurer la CLI pour charger les MCP dont tu as besoin. Regardes dans les docs pour voir comment configurer globalement. Le plus pratique étant Context7 pour la doc fraîche.
 
c'est une fonctionnalité de l'agent (la CLI) et non du LLM. Donc tu peux utiliser GLM4.7 ou MiniMax 2.1 avec tes MCP dans Claude Code ou OpenCode ou n'importe quelle autre CLI et configurer la CLI pour charger les MCP dont tu as besoin.

certes
1490886827-risibo.png
 
Si tu as un laptop un peu robuste avec CPU AMD AI / RAM élevée / gros GPU (encore mieux si tu as un desktop) tu peux utiliser LM Studio (et d'autres) qui te permettent de faire tourner ton modèle open source en local. Différents modèle chinois dispo DeepSeek notamment mais Qwen3 est plus approprié pour appeler des outils.

Du coup a part le cout du matos, c'est gratuit...


Sinon en payant tu peux utiliser des hébergeurs d'inférence comme Groq ("racheté" par Nvidia la semaine dernière il me semble et à ne pas confondre avec l'IA de Musk).

Groq propose le MCP natif en beta depuis septembre et les modèles supportant MCP sur GroqCloud incluent notamment :
Kimi K2 0905
Qwen 3 32B
Llama 4 Maverick / Scout
Llama 3.3 70B
GPT-OSS-120B / 20B

Un MCP c'est juste un bout de code qui tourne sur un serveur, toutes les IA chinoises agentiques peuvent en appeler : c'est une fonctionnalité de l'agent (la CLI) et non du LLM. Donc tu peux utiliser GLM4.7 ou MiniMax 2.1 avec tes MCP dans Claude Code ou OpenCode ou n'importe quelle autre CLI et configurer la CLI pour charger les MCP dont tu as besoin. Regardes dans les docs pour voir comment configurer globalement. Le plus pratique étant Context7 pour la doc fraîche.
Merci, mais ce ne serait pas pour tourner en local/CLI ; ce serait pour appeler un MCP via une IA dans le navigateur.

En fait, je pense faire un démonstrateur pour mes clients démontrant que l'IA peut utiliser mon produit avec des prompts, ce qui ouvre beaucoup de possibilités. C'est en théorie possible depuis claude.ai et chatgpt.com

En gros je cherche ça mais pour une IA "grand public" chinoise, du genre Deepseek, Qwen, etc..

MCP.png