{"id":1832,"date":"2018-08-23T17:25:48","date_gmt":"2018-08-23T15:25:48","guid":{"rendered":"https:\/\/www.tronatic-studio.com\/?p=623"},"modified":"2022-05-04T13:16:51","modified_gmt":"2022-05-04T11:16:51","slug":"nvidia-geforce-rtx-a-laube-dun-renouveau-pour-les-effets-speciaux","status":"publish","type":"post","link":"https:\/\/www.tronatic-studio.com\/fr\/nvidia-geforce-rtx-a-laube-dun-renouveau-pour-les-effets-speciaux\/","title":{"rendered":"Nvidia Geforce RTX : \u00c0 l\u2019aube d\u2019un renouveau pour les effets sp\u00e9ciaux ?"},"content":{"rendered":"<h2 class=\"intro\">Arriv\u00e9 en grande pompe sur la sc\u00e8ne de la Gamescom 2018, Jen Hsun Huang, cofondateur et pr\u00e9sident de Nvidia, vient peut-\u00eatre de faire une annonce qui restera longtemps grav\u00e9e dans nos m\u00e9moires. V\u00e9ritable r\u00e9volution pour le jeu vid\u00e9o, elle pourrait \u00e9galement amorcer le d\u00e9but d\u2019un changement consid\u00e9rable dans le domaine des effets sp\u00e9ciaux et de l\u2019animation <a href=\"https:\/\/www.tronatic-studio.com\/cat-projet\/cgi\/\">3D<\/a>. Mais de quoi parle-t-on exactement ?<\/h2>\n<p>Il aura fallu 10 longues ann\u00e9es et des investissements de plusieurs millions de dollars pour permettre \u00e0 <strong>Nvidia<\/strong> de gagner son pari sur le \u00ab <strong><em>Ray Tracing<\/em><\/strong> \u00bb.<\/p>\n<p><img fetchpriority=\"high\" decoding=\"async\" class=\"aligncenter size-full wp-image-628\" src=\"https:\/\/www.tronatic-studio.com\/wp-content\/uploads\/2018\/08\/Ray-Tracing-Nvidia.jpg\" alt=\"Ray Tracing Nvidia\" width=\"1200\" height=\"533\" \/><\/p>\n<p>Il y a des avanc\u00e9es technologiques qui ne laissent pas l\u2019humanit\u00e9 indiff\u00e9rente. L\u2019annonce de ces nouvelles s\u00e9ries de cartes graphiques grand public et professionnelles (Geforce RTX et Quadro RTX) en fait partie.<\/p>\n<p>Avec cette prouesse, <strong>Nvidia vient de nous promettre des changements majeurs dans notre exp\u00e9rience audiovisuelle, mais aussi sur la mani\u00e8re dont nous allons concevoir nos images<\/strong>, que ce soit pour du jeu vid\u00e9o, du cin\u00e9ma ou de la r\u00e9alit\u00e9 augment\u00e9e&#8230;<\/p>\n<p>Et pourtant. Il \u00e9tait difficilement imaginable qu\u2019une telle technologie arrive entre les mains du grand public aussi t\u00f4t sur le march\u00e9.<\/p>\n<p>Qu\u2019apporte-t-elle de si fantastique ? Nvidia n\u2019a pas l\u00e9sin\u00e9 sur le spectacle pour vous l\u2019expliquer.<\/p>\n<p><center><iframe src=\"https:\/\/www.youtube.com\/embed\/KJRZTkttgLw\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/center><\/p>\n<h2>Qu\u2019est-ce que le Ray Tracing de <strong><a href=\"https:\/\/www.nvidia.com\/fr-fr\/\">Nvidia<\/a> <\/strong> ?<\/h2>\n<p>Puisqu\u2019il faut bien comprendre de quoi nous parlons, revenons tr\u00e8s rapidement sur ce concept qui peut, peut-\u00eatre, vous sembler n\u00e9buleux.<\/p>\n<p><strong>Le Ray Tracing est aujourd\u2019hui l\u2019algorithme d\u2019\u00e9clairage le plus abouti pour simuler des interactions physiques semblables \u00e0 la r\u00e9alit\u00e9.<\/strong> Il apporte une qualit\u00e9 d\u2019affichage bien plus cr\u00e9dible que n\u2019importe quelle autre technique utilis\u00e9e encore aujourd\u2019hui.<\/p>\n<p>Mais vous devez savoir que ce n\u2019est pas une technologie sign\u00e9e Nvidia comme pouvaient l\u2019\u00eatre PhysX ou G-SYNC. Bien au contraire, elle est utilis\u00e9e depuis tr\u00e8s longtemps, notamment dans la cr\u00e9ation d\u2019image de synth\u00e8ses pr\u00e9-calcul\u00e9es pour le cin\u00e9ma.<\/p>\n<p>Il \u00e9tait impensable de la voir arriver sur le terrain du temps r\u00e9el puisque son principal d\u00e9faut repose sur une demande en ressource tr\u00e8s gourmande.<\/p>\n<p>Une seule image de la vid\u00e9o pr\u00e9sent\u00e9e ci-dessus pourrait prendre plusieurs heures de calcul pour esp\u00e9rer un rendu similaire sur un format pr\u00e9-calcul\u00e9. Et pourtant, Nvidia en propose 60 \u00e0 la seconde sur un format 4K. Un v\u00e9ritable pas de g\u00e9ant dans l\u2019univers du temps r\u00e9el.<\/p>\n<p>Pour entrer dans les d\u00e9tails, lorsqu\u2019une source de lumi\u00e8re \u00e9met des rayons lumineux, ces derniers rebondissent sur l\u2019ensemble des surfaces d\u2019un objet pr\u00e9sent sur son passage jusqu\u2019\u00e0 atteindre nos yeux. C\u2019est ainsi que notre cerveau re\u00e7oit toutes les informations dont il a besoin pour appr\u00e9hender l\u2019environnement qui l\u2019entoure.<\/p>\n<p>Le Ray Tracing emprunte le chemin inverse : on part de l\u2019\u0153il, dans notre cas, une cam\u00e9ra virtuelle, qui \u00e9met plusieurs rayons. Ces rayons parcourent l\u2019environnement et analysent chaque objet qu\u2019ils rencontrent en analysant leur capacit\u00e9 de r\u00e9flexion. Pour \u00e7a, plusieurs crit\u00e8res sont pris en compte comme le type d\u2019objet, sa couleur, sa texture, sa position dans l\u2019espace etc. Cette m\u00e9thode permet ainsi de simuler la r\u00e9action physique d\u2019un rayon lumineux.<\/p>\n<p>Cette vid\u00e9o post\u00e9e par <strong>Nvidia<\/strong> en mars 2018 vous permettra de comprendre plus facilement ce concept.<\/p>\n<p><center><iframe src=\"https:\/\/www.youtube.com\/embed\/tjf-1BxpR9c\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/center><\/p>\n<h2>Une r\u00e9volution pour l\u2019industrie du jeu vid\u00e9o<\/h2>\n<p>Il existe de nombreux cas d\u2019application \u00e0 l\u2019image en temps r\u00e9el. La r\u00e9alit\u00e9 augment\u00e9e, l\u2019imagerie m\u00e9dicale ou les voitures autonomes&#8230; Pourtant c\u2019est le jeu vid\u00e9o qui nous int\u00e9resse ici puisqu\u2019il est le principal int\u00e9ress\u00e9 par l\u2019arriv\u00e9e du Ray Tracing.<\/p>\n<p>Jusqu\u2019ici, ce m\u00e9dia employait plut\u00f4t une technique appel\u00e9e la rast\u00e9risation. Loin d\u2019\u00eatre aussi performante que le Ray Tracing, elle permet tout de m\u00eame d\u2019offrir un rendu d\u2019image satisfaisant mais peu concordant avec la r\u00e9alit\u00e9. La gestion de la lumi\u00e8re, des reflets et des ombres n\u2019est pas calcul\u00e9e par l\u2019envoi d\u2019une multitude de rayons lumineux mais plut\u00f4t par des algorithmes simplifi\u00e9s.<\/p>\n<figure id=\"attachment_624\" aria-describedby=\"caption-attachment-624\" style=\"width: 1200px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" class=\"size-full wp-image-624\" src=\"https:\/\/www.tronatic-studio.com\/wp-content\/uploads\/2018\/08\/RTX-OFF-Battlefield-5.jpg\" alt=\"Ray Tracing Off\" width=\"1200\" height=\"674\" \/><figcaption id=\"caption-attachment-624\" class=\"wp-caption-text\">Non-utilisation du Ray Tracing sur la m\u00eame image de Battlefield 5. Cr\u00e9dits : Nvidia\/EA<\/figcaption><\/figure>\n<figure id=\"attachment_625\" aria-describedby=\"caption-attachment-625\" style=\"width: 1200px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" class=\"size-full wp-image-625\" src=\"https:\/\/www.tronatic-studio.com\/wp-content\/uploads\/2018\/08\/RTX-ON-Battlefield-5.jpg\" alt=\"Ray Tracing ON\" width=\"1200\" height=\"667\" \/><figcaption id=\"caption-attachment-625\" class=\"wp-caption-text\">Utilisation du Ray Tracing sur une d\u00e9mo de Battlefield 5. Cr\u00e9dits : Nvidia\/EA<\/figcaption><\/figure>\n<p>La prouesse de Nvidia est d\u2019avoir r\u00e9ussi \u00e0 implanter, en partie, <strong>une technologie issue des rendus photor\u00e9alistes pour le temps r\u00e9el.<\/strong> Il existe cependant quelques faiblesses dans leur solution.<\/p>\n<p>Tandis qu\u2019une image pr\u00e9-calcul\u00e9e avec la pleine puissance du Ray Tracing se base sur l\u2019envoi de plusieurs millions de rayons lumineux par pixel afin d\u2019obtenir une simulation semblable \u00e0 la physique de la lumi\u00e8re, la m\u00e9thode employ\u00e9e par Nvidia repose sur l\u2019envoi de seulement 2 rayons par pixel. Le temps r\u00e9el atteignant ses limites actuelles au-del\u00e0.<\/p>\n<p>Pour contourner ce manque de puissance, Nvidia a fait le choix de mutualiser le Ray Tracing avec la rast\u00e9risation dans leur architecture \u00ab\u00a0<strong><em>Turing\u00a0<\/em><\/strong>\u00bb en ajoutant \u00e9galement un algorithme bas\u00e9 sur une intelligence artificielle et le deep learning. Cela leur permet d\u2019utiliser plusieurs informations comme la couleur de l\u2019objet ou l\u2019orientation de la surface et de lisser le r\u00e9sultat en temps r\u00e9el.<\/p>\n<p>Cette solution leur permet tout de m\u00eame d\u2019offrir un gap visuel sans pr\u00e9c\u00e9dent pour le jeu vid\u00e9o.<\/p>\n<p><center><iframe src=\"https:\/\/www.youtube.com\/embed\/J3ue35ago3Y\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/center><\/p>\n<h2>Quels sont les changements envisag\u00e9s par cette annonce sur l\u2019univers des effets sp\u00e9ciaux et de l\u2019animation 3D\u00a0?<\/h2>\n<p>Il existe deux distinctions importantes \u00e0 prendre en compte. Le jeu vid\u00e9o est depuis toujours confront\u00e9 \u00e0 une probl\u00e9matique li\u00e9e au temps. Bien \u00e9videmment, proposer une qualit\u00e9 d\u2019image satisfaisante pour le joueur est important, mais elle doit pouvoir s\u2019afficher sans rencontrer de probl\u00e8mes de ralentissement en live.<\/p>\n<p>Dans un domaine comme le cin\u00e9ma, les probl\u00e9matiques sont diff\u00e9rentes. Peu importe le temps que \u00e7a prend (dans des limites raisonnables bien s\u00fbr), la qualit\u00e9 d\u2019image est une priorit\u00e9 absolue. Sans la contrainte du temps r\u00e9el, c\u2019est exactement pour cette raison que la cr\u00e9ation d\u2019effets sp\u00e9ciaux et d\u2019animation 3D profite depuis toujours de la technologie du Ray Tracing comme base de travail.<\/p>\n<p>C\u2019est aujourd\u2019hui la solution la plus physique pour simuler la r\u00e9alit\u00e9.<\/p>\n<p>Chacune des images est pouss\u00e9e au niveau de qualit\u00e9 la plus haute que l\u2019on puisse atteindre.<\/p>\n<p>Le probl\u00e8me rencontr\u00e9 par la majorit\u00e9 des studios d\u2019effets sp\u00e9ciaux et d\u2019animation 3D revient sur le temps.<\/p>\n<p>En infographie 3D, il existe deux solutions. Soit on privil\u00e9gie le temps au d\u00e9triment de la qualit\u00e9, c\u2019est le cas pour l\u2019affichage temps r\u00e9el. Soit, la qualit\u00e9 passe en priorit\u00e9, et dans ce cas-l\u00e0, le temps de calcul devient cons\u00e9quent.<\/p>\n<p>Une seule image en temps r\u00e9el ne prend que 0,016 seconde \u00e0 s\u2019afficher, alors que plusieurs heures sont n\u00e9cessaires pour pr\u00e9-calculer des images de synth\u00e8se avec des algorithmes embarquant toute la puissance du Ray Tracing.<\/p>\n<p>Sur un projet complet, le temps de calcul des images peut \u00eatre de plusieurs semaines voire plusieurs mois pour les plus gros.<\/p>\n<p>Dans un milieu o\u00f9 les deadlines sont tr\u00e8s compliqu\u00e9es \u00e0 tenir, comment faire pour r\u00e9duire ce temps consid\u00e9rable seulement allou\u00e9 au calcul\u00a0? Pourrions-nous envisager gagner plus de temps sur la production\u00a0?<\/p>\n<p><center><iframe src=\"https:\/\/www.youtube.com\/embed\/yVflNdzmKjg\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/center><strong>L\u2019avanc\u00e9e de Nvidia sur le Ray Tracing en temps r\u00e9el laisse pr\u00e9sager qu\u2019il sera bient\u00f4t possible de r\u00e9duire drastiquement cette \u00e9tape.<\/strong> Fondamentalement, cela ne changera pas la qualit\u00e9 ou la m\u00e9thode employ\u00e9e pour cr\u00e9er nos images de synth\u00e8se, mais elle a, cependant, le m\u00e9rite d\u2019offrir des \u00e9l\u00e9ments de r\u00e9ponse attendus depuis longtemps.<\/p>\n<h2>Vers la fin du calcul des images par processeur\u00a0?<\/h2>\n<p>Afin d\u2019optimiser et r\u00e9duire le temps de calcul des images au maximum, on r\u00e9unit de nombreux ordinateurs en r\u00e9seaux. On appelle cela plus commun\u00e9ment \u00ab\u00a0une ferme de rendus\u00a0\u00bb.<\/p>\n<p>Elles sont principalement compos\u00e9es de CPU (processeurs) mais une tendance \u00e9merge depuis ces 5 derni\u00e8res ann\u00e9es : les fermes de rendus compos\u00e9es exclusivement de GPU (carte graphique).<\/p>\n<p>Il existe une r\u00e9elle convergence d\u2019opinion sur le sujet. Quel est le plus efficace\u00a0? Jusqu\u2019aujourd\u2019hui, les processeurs ont encore une pr\u00e9sence accrue dans nos fermes de rendus. Mais l\u2019avanc\u00e9e technologique d\u2019Nvidia rebat compl\u00e8tement les cartes (et c\u2019est le cas de le dire).<\/p>\n<figure id=\"attachment_626\" aria-describedby=\"caption-attachment-626\" style=\"width: 1200px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-626\" src=\"https:\/\/www.tronatic-studio.com\/wp-content\/uploads\/2018\/08\/performances-carte-graphique-nvidia.jpg\" alt=\"\" width=\"1200\" height=\"638\" \/><figcaption id=\"caption-attachment-626\" class=\"wp-caption-text\">La carte graphique a un bel avenir dans le calcul des images de synth\u00e8se.<\/figcaption><\/figure>\n<p>Dans le domaine des effets sp\u00e9ciaux et de l\u2019animation 3D, nous sommes face \u00e0 une probl\u00e9matique bien claire\u00a0: pour cr\u00e9er nos images de synth\u00e8ses, les outils que nous utilisons doivent r\u00e9soudre une multitude de calculs r\u00e9p\u00e9titifs.<\/p>\n<p>Faisons un point sur la structure m\u00eame de ces composants. Leur architecture est sensiblement diff\u00e9rente, tout comme leur mission au sein d\u2019un ordinateur, bien qu\u2019ils puissent, dans notre cas, arriver au r\u00e9sultat voulu.<\/p>\n<p>Le processeur (CPU) est compos\u00e9 d\u2019un petit nombre de c\u0153urs relativement puissants lui permettant de r\u00e9aliser des calculs complexes tr\u00e8s rapidement. A contrario, une carte graphique repose sur un nombre plus important de c\u0153urs ayant la capacit\u00e9 de traiter un flux plus important de calculs similaires en m\u00eame temps.<\/p>\n<p>Une analogie s\u2019impose.<\/p>\n<p>Imaginez-vous \u00e0 la t\u00eate d\u2019une \u00e9quipe de 20 personnes. Parmi elles, 19 ont une capacit\u00e9 cognitive dans la normalit\u00e9 et le dernier dispose d\u2019un QI tr\u00e8s largement sup\u00e9rieur que l\u2019on pourrait d\u00e9signer comme un savant.<\/p>\n<p>Vous formez deux \u00e9quipes. L\u2019une est compos\u00e9e du savant, qui repr\u00e9sente ici notre processeur, et l\u2019autre \u00e9quipe, compos\u00e9e des 19 personnes, jouera le r\u00f4le de notre carte graphique.<\/p>\n<p>Vous leur assignez les m\u00eames t\u00e2ches pour \u00e9valuer l\u2019\u00e9quipe la plus performante.<\/p>\n<p>La premi\u00e8re consiste \u00e0 r\u00e9aliser une \u00e9norme quantit\u00e9 de calculs similaires de niveau coll\u00e8ge. Tout naturellement, l\u2019\u00e9quipe compos\u00e9e de 19 personnes ira infiniment plus vite que le \u00ab\u00a0savant\u00a0\u00bb.<\/p>\n<p>Maintenant, les deux \u00e9quipes sont confront\u00e9es \u00e0 des calculs bien plus complexes. Bien que seul, notre savant aura la capacit\u00e9 d\u2019avancer bien plus vite gr\u00e2ce \u00e0 sa logique et sa capacit\u00e9 de r\u00e9flexion sur des probl\u00e8mes complexes.<\/p>\n<p>Les calculs n\u00e9cessaires pour afficher une image photor\u00e9aliste se comptent par milliard et sont sensiblement de m\u00eame nature. On pourrait donc penser que l\u2019architecture d\u2019une carte graphique semble plus optimis\u00e9e.<\/p>\n<p>C\u2019est exactement pour cette raison que l\u2019arriv\u00e9e des nouveaux produits de Nvidia laisse entrevoir un changement majeur.<\/p>\n<h2>Que pouvons-nous attendre pour le futur\u00a0?<\/h2>\n<p>Comme le jeu vid\u00e9o, nous sommes \u00e0 l\u2019aube d\u2019un bouleversement sans pr\u00e9c\u00e9dent pour l\u2019industrie de l\u2019image de synth\u00e8se.<\/p>\n<p>Ce graphique vous aidera \u00e0 comprendre la tendance vers laquelle nous nous dirigeons dans les prochaines ann\u00e9es concernant les deux domaines que sont les images pr\u00e9-calcul\u00e9es et le temps r\u00e9el.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-630\" src=\"https:\/\/www.tronatic-studio.com\/wp-content\/uploads\/2018\/08\/Image-temps-reel-et-precalcule.jpg\" alt=\"Image temps r\u00e9el et pr\u00e9calcul\u00e9e\" width=\"1200\" height=\"452\" data-wp-editing=\"1\" \/><\/p>\n<p>Inexorablement, il n\u2019y aura bient\u00f4t plus de choix \u00e0 faire entre la qualit\u00e9 et le temps d\u2019affichage. Bien qu\u2019il existe encore de nombreux efforts \u00e0 fournir pour atteindre ce point de convergence, les cartes graphiques RTX de Nvidia viennent tout bonnement d\u2019offrir un pas de g\u00e9ant au temps r\u00e9el en lui permettant de se rapprocher vers la qualit\u00e9 des images pr\u00e9-calcul\u00e9es.<\/p>\n<p>Pourtant, ces derni\u00e8res resteront encore d\u2019actualit\u00e9 car le Ray Tracing propos\u00e9 par Nvidia souffre de certaines limites. La technologie est encore inadapt\u00e9e pour cr\u00e9er une v\u00e9ritable image de synth\u00e8se avec des effets sp\u00e9ciaux ou de l\u2019animation 3D comme le proposerait un Pixar. Elle a besoin de devenir plus mature. Il sera int\u00e9ressant de voir comment Nvidia r\u00e9ussira \u00e0 combler ces lacunes dans les prochaines g\u00e9n\u00e9rations de GPU.<\/p>\n<p><strong>Ce n\u2019est qu\u2019une question de temps avant que film d\u2019animation et temps r\u00e9el fusionnent.<\/strong> Certains ont d\u00e9j\u00e0 saut\u00e9 le pas, comme Oats studio et leurs courts-m\u00e9trages rendus sur Unity, moteur temps r\u00e9el.<\/p>\n<p><center><iframe src=\"https:\/\/www.youtube.com\/embed\/GXI0l3yqBrA\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/center>La qualit\u00e9 propos\u00e9e est tout de m\u00eame saisissante bien que certains d\u00e9tails d\u00e9voilent encore certaines faiblesses du temps r\u00e9el. Pour de l\u2019animation, cette technologie pourrait vite devenir suffisante, mais cela semble un peu plus complexe pour des effets sp\u00e9ciaux.<\/p>\n<p>Les moteurs de rendu temps r\u00e9el, principalement d\u00e9velopp\u00e9 pour le jeu vid\u00e9o, ne sont pas adapt\u00e9s nativement pour les cr\u00e9er. Ils proposent une image finalis\u00e9e et ne laissent aucune marge de man\u0153uvre pour l\u2019incrustation de VFX qui n\u00e9cessite de d\u00e9couper certains \u00e9l\u00e9ments de l\u2019image.<\/p>\n<p>C\u2019est ce d\u00e9fi qui vient d\u2019\u00eatre enclench\u00e9 par Nvidia. Peut-\u00eatre demain, pourrons-nous esp\u00e9rer un moteur de rendu en temps r\u00e9el tout simplement universel et optimis\u00e9 pour l\u2019ensemble des domaines li\u00e9s \u00e0 l\u2019image. L\u2019exigence li\u00e9e \u00e0 la qualit\u00e9 ne changera pas mais il permettra sans aucun doute de faire gagner un temps consid\u00e9rable li\u00e9 aux calculs et ainsi allouer plus de temps \u00e0 la production.<\/p>\n<p><strong>Quel est votre ressenti sur le sujet\u00a0?<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Arriv\u00e9 en grande pompe sur la sc\u00e8ne de la Gamescom 2018, Jen Hsun Huang, cofondateur et pr\u00e9sident de Nvidia, vient peut-\u00eatre de faire une annonce qui restera longtemps grav\u00e9e dans nos m\u00e9moires. V\u00e9ritable r\u00e9volution pour le jeu vid\u00e9o, elle pourrait \u00e9galement amorcer le d\u00e9but d\u2019un changement consid\u00e9rable dans le domaine des effets sp\u00e9ciaux et de [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":1847,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[14],"tags":[],"class_list":["post-1832","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-vfx"],"acf":[],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/posts\/1832","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/comments?post=1832"}],"version-history":[{"count":0,"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/posts\/1832\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/media\/1847"}],"wp:attachment":[{"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/media?parent=1832"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/categories?post=1832"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.tronatic-studio.com\/fr\/wp-json\/wp\/v2\/tags?post=1832"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}