
Pourquoi Will Smith et ses spaghettis sont devenus le test ultime de l'IA vidéo
Dans l'univers de l'intelligence artificielle, certains tests deviennent des légendes. C'est le cas du "Will Smith Eating Spaghetti Test", un benchmark informel né d'une vidéo virale de 2023. Ce mème, où l'acteur dévore des pâtes de façon surnaturelle, sert aujourd'hui de référence pour évaluer le réalisme et la cohérence des nouveaux modèles de génération vidéo. Retour sur l'origine et la signification de ce curieux étalon de mesure.
Comment une vidéo ratée est devenue un standard technique
Tout commence le 23 mars 2023. Sur le subreddit StableDiffusion, un utilisateur partage une vidéo générée par IA avec un prompt simple : « Will Smith eating spaghetti ». Le résultat est un chef-d'œuvre d'absurdité : le visage de l'acteur se métamorphose, la fourchette semble avoir une vie propre et l'ambiance générale relève du cauchemar. La vidéo, qualifiée de « démoniaque » par certains commentateurs, devient virale instantanément.
Ce qui aurait pu rester une simple curiosité est rapidement adopté par la communauté technique. La scène pose des défis considérables pour les modèles de l'époque : interactions complexes, textures fluides, cohérence temporelle et expressivité faciale. Elle devient un test de référence naturel pour jauger les progrès des nouvelles générations de modèles, à l'image du « Hello World » en programmation.
Pourquoi cette scène pose-t-elle un défi technique majeur ?
Manger des spaghettis semble banal, mais pour une IA, c'est un exercice de haut niveau. Plusieurs facteurs rendent ce test particulièrement difficile :
- La complexité des interactions physiques. Les pâtes sont un objet déformable et glissant. L'IA doit comprendre et animer la physique de la nourriture, son interaction avec la fourchette, et les mouvements de la main de manière synchronisée. Un défaut dans l'une de ces couches brise immédiatement l'illusion.
- La subtilité des expressions faciales. La mâchoire, les lèvres, les joues et même les yeux participent à l'acte de manger. La vidéo exige une compréhension profonde de l'anatomie humaine et de ses mouvements subtils. Les premiers modèles échouaient complètement, créant des distorsions faciales terrifiantes.
- La cohérence temporelle sur la durée. Contrairement à une image fixe, une vidéo de plusieurs secondes doit maintenir une logique interne sans scintillements, changements d'identité ou objets qui disparaissent. C'est un test de constance pour la mémoire à court terme du modèle.
L'évolution rapide de l'IA vue à travers un plat de pâtes
Le test offre un chronique visuelle accélérée de l'innovation en IA vidéo. On peut y suivre la courbe de progrès impressionnante de ces dernières années.
- 2023 : l'ère des hallucinations. La vidéo originale de ModelScope incarne les limites des premiers modèles text-to-video. Le rendu est saccadé, sans compréhension de la physique ou de l'anatomie. Le résultat est plus proche de l'art abstrake que du réalisme.
- 2025 : le saut de réalisme. En mai 2025, Google Veo 3 produit une version qui marque un tournant. La fluidité des mouvements et la précision du visage sont bien meilleures. Cependant, des détails trahissent encore l'IA, comme des effets sonores de mastication invraisemblables, qualifiés de « croquants » par les observateurs.
- 2026 : la traversée de la vallée de l'étrange. Début 2026, le modèle Seedance 2.0 de ByteDance réussit le test avec un réalisme bluffant. L'éclairage, les détails de la cuisine, les mouvements des spaghettis et l'expression de Will Smith sont cohérents et crédibles. Le « test » est considéré comme passé, marquant une nouvelle étape dans la maturité de la technologie.
Un mème qui dépasse le cadre technique
L'histoire ne s'arrête pas aux benchmarks. Le phénomène a acquis une dimension culturelle propre. En février 2024, Will Smith lui-même s'est prêté au jeu, publiant une vidéo parodique sur Instagram où il mime les contorsions de son double numérique, avec la légende : « This is getting out of hand! » (Ça part en vrille !). Cette participation a ancré le test dans la culture populaire, au-delà de la sphère technophile.
Le test est devenu un symbole ironique de l'état de l'IA, un clin d'œil collectif. Il illustre parfaitement la tension entre l'enthousiasme pour les progrès technologiques et l'amusement face à ses erreurs les plus flagrantes. Pour la communauté, c'est un rituel convivial et un point de repère commun qui permet de comparer les modèles sans jargon complexe. Chaque nouvelle sortie de modèle est ainsi automatiquement soumise à l'épreuve des spaghettis, transformant un échec viral en un outil de mesure historique.
Sources
- Will Smith Eating Spaghetti test – Wikipedia : Article de référence détaillant l'origine et l'usage du test comme benchmark.
- AI Can Flawlessly Generate Will Smith Eating Spaghetti—What Now? – Forbes : Analyse de la réussite du modèle Seedance 2.0 et des implications pour l'industrie.
- How AI Will Smith eats spaghetti in 2026 – Mashable : Article comparant les évolutions et qualifiant le test de « Hello World » de l'IA vidéo.
Qu'est-ce que le "Will Smith Eating Spaghetti Test" ?
Le « Will Smith Eating Spaghetti Test » est un benchmark informel utilisé dans la communauté de l'intelligence artificielle pour évaluer la capacité des modèles de génération vidéo à créer une scène réaliste d'un humain en train d'effectuer une action complexe. Il tire son origine d'une vidéo virale générée par IA en 2023 qui montrait une version déformée et surnaturelle de l'acteur Will Smith mangeant des pâtes.
Pourquoi la vidéo "Will Smith Eating Spaghetti" est-elle si difficile à reproduire pour une IA ?
Cette scène est un défi car elle combine plusieurs éléments complexes : la physique d'un aliment déformable et glissant (les spaghettis), une interaction précise avec un ustensile (fourchette), des mouvements faciaux subtils liés à la mastication, et une cohérence temporelle sur plusieurs secondes. L'échec dans l'un de ces domaines (ex: visage qui se déforme, nourriture qui traverse la fourchette) brise immédiatement l'illusion de réalisme.
Quel a été le premier modèle IA à réussir le test "Will Smith Eating Spaghetti" de manière convaincante ?
Bien que des modèles comme Google Veo 3 aient montré d'énormes progrès en 2025, c'est le modèle Seedance 2.0 de ByteDance qui, début 2026, a produit une vidéo considérée comme « quasi-parfaite », avec un réalisme visuel, sonore et une cohérence qui marquent la première réussite complète et indiscutable de ce benchmark informel.
Comment le test "Will Smith Eating Spaghetti" a-t-il évolué entre 2023 et 2026 ?
L'évolution est radicale. En 2023, les modèles produisaient des vidéos cauchemardesques et incohérentes. En 2025, le réalisme visuel s'est amélioré mais avec des défauts notoires comme une synchronisation audio imparfaite. En 2026, les dernières générations de modèles atteignent un niveau de détail et de fluidité tel que la vidéo générée peut être confondue avec une captation réelle, signant la victoire sur ce test spécifique.





