Qualcomm à pied d'œuvre sur le Snapdragon 8 Gen2, il devrait améliorer la prise en charge de Netflix et YouTube

21 février 2022 à 14h12
8
© Qualcomm
© Qualcomm

Alors que MediaTek, Broadcom et Samsung gèrent déjà le codec vidéo AV1 sur leurs SoC, Qualcomm fait figure de retardataire sur le sujet.

Cela pourrait changer avec son prochain fleuron. Le Snapdragon 8 Gen2 devrait en effet améliorer la prise en charge des plateformes de streaming vidéo des futurs smartphones qu’il équipera. 

Le codec AV1 arriverait avec le Snapdragon 8 Gen 2

Face à l’explosion des usages du streaming vidéo, très gourmand en bande passante, le codec AV1 est de plus en plus prisé par les grandes plateformes comme Netflix, YouTube et consorts. Néanmoins, ce nouveau format tendance de l’industrie n’est encore qu’en phase d’adoption et plusieurs SoC ne le prennent toujours pas en charge. C’est le cas de Qualcomm, qui entend corriger le tir avec son prochain processeur.

Le site Protocol a en effet glané des informations autour de l'usage de ce codec dans l’industrie et affirme que Qualcomm va adopter l’AV1 pour sa prochaine puce, vraisemblablement le Snapdragon 8 Gen 2, dont le nom de code serait par ailleurs « sm8550 ». Il faudra néanmoins patienter jusqu'en 2023 avant de voir ce nouveau fleuron arriver sur nos mobiles. L’intégration de l’AV1 devrait améliorer la prise en charge de Netflix et des autres plateformes de streaming vidéo sur les futures générations de smartphones. Ce même format permet également d’améliorer le Cloud gaming avec une meilleure compression vidéo.

Le moment est venu de choisir votre nouveau smartphone. Vous avez peut-être déjà quelques critères en tête ? Un budget précis ? Une marque favorite ? Le problème est qu'il existe des dizaines de constructeurs de téléphones. Ces derniers proposent des centaines de modèles différents qui ont eux-mêmes pléthore de caractéristiques techniques. Dans ce guide, nous passerons en revue certains critères importants à considérer avant de faire votre choix, ainsi que des conseils pour vous aider à sélectionner le meilleur smartphone : celui qui répond à vos besoins.
Lire la suite

Source : Protocol

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

dredd
Qualcomm suiveur de MediaTek.<br /> Elle commence à devenir funky cette réalité alternative dans laquelle on baigne depuis plus de deux ans.
SPH
Salut,<br /> J’ai une question un peu bête/technique : une puce snapdragon peut-elle épauler un CPU ou même un GPU ? (dans un PC)
sebstein
CàD ? Une puce Snapdragon c’est un CPU+GPU+…
SPH
En fait, j’imagine une CG sur laquelle il y aurait un GPU 3070Ti (par exemple), et en plus, une puce snapdragon. Vous moquez pas, je suis sérieux.<br /> Par exemple, avant (il y a 30 ans), le CPU faisait les calculs d’un GPU. Il n’y avait pas de CG dans les PC. Puis sont apparût les CG. On peux dire que les CG épaulaient les CPU dans la catégorie graphique.<br /> Maintenant, et si la CG elle même était épaulée par une autre puce (un snapdragon par exemple) ?<br />
nico54m
C’est une puce mobile, elle n’a pas vocation à aller dans un PC.
ultrabill
Un GPU est une puce dédiée « graphiques », elle peut être épaulée pour des fonctions spécifiques comme on l’a connu avec les PhysX, par exemple. Du coup, techniquement oui tu peux « aider » un GPU avec un CPU ARM pour certains fonctions, reste à trouver lesquelles
Nmut
Alors non, il y a 30 ans, il y avait déjà des puces spécialisées dans l’affichage, seulement elles étaient basiques et sans aucune possibilité de calcul ni d’accélération, il y avait juste une gestion d’une mémoire cache pour les pixels et la génération du signal vidéo (bon la gestion du mode texte était un peu plus compliqué mais je schématise!), tout comme la puce sonore qui faisait la même chose mais créait un signal audio. Le proc construisait l’image dans le buffer vidéo.<br /> Il n’y a aucune impossibilité technique pour associer des puces (surtout qu’elles gèrent toutes un canal de communication très pratique: l’USB) mais cela a juste peu (voir pas) d’intérêt.<br /> Tu penses à quel genre d’utilisation?
Kvn_Jma
Haaaa PhysX, si seulement ça avait percé et que la technologie avait progressé.<br /> Je déplore l’absence quasi totale de physique, d’interaction et de destruction dans tous les AAA depuis des années.<br /> Quand tu vois que le jeu où la physique est la mieux exploitée c’est Zelda Breath of the wild, ça donne envie de pleurer…<br /> Tous les jeux récents ce sont des décors statiques dans lesquels un personnage se balade.<br /> Alors oui une carte dédiée PhysX serait la bienvenue, ce serait peut être vu comme une option de bourgeois mais au moins le JV ferait un véritable pas en avant en intégrant de l’interactivité<br /> Si on pouvait aussi avoir une carte dédiée « AI Power Ultra » pour qu’on ait une intelligence artificielle digne de 2022 dans nos jeux, parce qu’à l’heure actuelle on arrive rarement au niveau de F.E.A.R qui doit avoir 15 ans !
benben99
En théorie pourquoi pas. Des ordinateurs multi-cpu existent depuis longtemps.<br /> En pratique ce n’est pas conçu pour qu’on le fasse.<br /> Ceux qui disent le contraire ne savent pas de quoi ils parlent
tosqualler
Pourrait, il faut voir les I/O qui sont disponnible et l’utilité… <br /> Xilinx fait déjà des cartes PCI express avec un SoC FPGA+Arm ou alors tu peux deployer des softcore (cpu) sur des FPGA…<br /> Après, à toi de déployer du code sur la puce qui convient le mieux à ton application ^^<br /> Un exemple concret : les cpu Intel et AMD ne sont pas terrible pour faire du temps-réel…alors que les ARM cortex M le sont…<br /> digilent.c0m/shop/netfpga-sume-virtex-7-fpga-development-board/
Voir tous les messages sur le forum