Comment utiliser efficacement le GPGPU ?
prepa75
Membre
Bonjour,
j'ai lu sur plusieurs articles que les processeurs des cartes graphiques étaient très performantes pour les calculs en parallele,comparé au CPU qui lui est performant dans des calculs en série !
Ma question est la suivante : peut-on coder facilement le GPGPU ? ou alors c'est même pas la peine
j'ai lu sur plusieurs articles que les processeurs des cartes graphiques étaient très performantes pour les calculs en parallele,comparé au CPU qui lui est performant dans des calculs en série !
Ma question est la suivante : peut-on coder facilement le GPGPU ? ou alors c'est même pas la peine
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Mais attention, ne pas croire que le GPGPU sera efficace dans tous les cas: Il faut des algorithmes adaptés (massivement parallélisables) pour un tirer réellement un avantage.
donc OpenGl utilise par défaut le proc de la CG ? je vais me renseigner à ce sujet, pour les algorythmes je pensais surtout aux attaques par bruteforce,qui sont paralélisable à l'infini ça fait peur si un mec prend une carte mère qui accepte 3 ou 4 CG en SLI
Pour moi GCD est un angle d'attaque plus intéressant si tu veux te lancer dans de l'optimisation, permettant déjà d'optimiser et paralléliser pas mal de choses avec une syntaxe plus simple et abordable (et encore il est préférable de comprendre les stacks de threads et les synchronisations des blocks mais bon). Et si tu t'en sors avec GCD et comprend déjà tous les principes et est à l'aise avec, alors tu seras prêt pour attaquer OpenCL. Mais on ne se lance pas dans OpenCL sans connaissances de base.