Percepta AI : L'exécution de code C au sein des poids du transformer
Percepta AI prétend transformer l'architecture transformer en machine virtuelle capable d'exécuter du code C arbitraire directement dans les poids du modèle. L'objectif est de supprimer l'appel d'outi

Le Pitch
Percepta AI prétend transformer l'architecture transformer en machine virtuelle capable d'exécuter du code C arbitraire directement dans les poids du modèle. L'objectif est de supprimer l'appel d'outils Python externes pour atteindre une vitesse d'inférence dépassant les 30 000 tokens par seconde sur un simple CPU (source: Percepta.ai Blog).
Sous le capot
L'implémentation technique repose sur une restriction des têtes de lookup à une dimension 2, ce qui permet des opérations de récupération et de mise à jour en temps logarithmique (source: Percepta.ai Blog, March 2026). Cette architecture Transformer-VM vise à résoudre les problèmes de latence d'inférence que l'on observe encore sur les architectures classiques comme Claude 4 Sonnet lors de tâches de calcul intensives.
Les fondateurs, Hirsh et Radha Jain, ex-ingénieurs seniors chez Palantir, ont documenté l'exécution réussie de l'algorithme hongrois et de grilles de Sudoku complexes au sein de leur structure (source: Percepta.ai Blog). Malgré des partenariats stratégiques avec Anthropic et AWS pour le déploiement en entreprise (source: HLTH.com), le projet est freiné par un obstacle de taille.
Palantir a lancé une poursuite judiciaire fédérale contre les fondateurs, alléguant le vol de secrets industriels liés à leur code source (source: Reuters/Investing.com). Cette situation juridique instable refroidit une partie de la communauté sur Hacker News, qui craint que la technologie ne soit jamais librement accessible.
On ne sait pas encore si Transformer-VM sera distribué en open-source ou s'il restera une boîte noire propriétaire. De plus, aucune comparaison directe de performance n'a été publiée face aux traces de raisonnement internes de GPT-5 ou aux capacités de tool-use de Claude 4.5 Opus.
Certains développeurs sur Reddit et HN pointent également un risque de "vaporware" où l'architecture excellerait uniquement sur des traces symboliques spécifiques (source: HN Comments). Les détails techniques sur l'optimisation dite "convex hull", mentionnée dans les discussions préliminaires, demeurent pour l'instant confidentiels.
L'avis de Ruben
On ne touche pas à Percepta AI en production tant que le procès avec Palantir n'est pas réglé. L'approche technique de l'exécution C "in-weight" est brillante pour réduire la latence, mais le risque juridique est trop élevé pour une stack d'entreprise en 2026. Entre la menace d'une injonction et l'absence de benchmarks indépendants face aux ténors comme Claude 4.5 Opus, c'est un projet à surveiller de loin mais à ne surtout pas intégrer dans vos pipelines critiques pour le moment.
Codez propre,
Ruben.

Ruben Isaac - Lead AI Tech Watcher at UsedBy.ai
Articles connexes

Tin Can : Analyse technique du terminal VOIP pour enfants
Tin Can est un terminal VOIP Wi-Fi et Ethernet conçu pour remplacer le smartphone chez les mineurs via un système de liste blanche. L'appareil mise sur un design nostalgique sans écran pour limiter l'

PC Gamer prône la sobriété web avec une page de 37 Mo
PC Gamer appelle ses lecteurs à "tuer l'algorithme" en revenant aux flux RSS pour échapper à l'en-shittification du web moderne. Le sujet s'est transformé en cas d'école sur Hacker News à cause d'un p

Stratégie POSSE : l’état de l’art de la syndication de contenu en 2026
Le POSSE (Publish on your Own Site, Syndicate Elsewhere) vise à reprendre le contrôle total sur la propriété des données. L'idée est de centraliser l'autorité sur son propre domaine tout en exploitant
Restez à la pointe des tendances d'adoption de l'IA
Recevez nos derniers rapports et analyses directement dans votre boîte mail. Pas de spam, que des données.