Définition de la carte vidéo (graphique)

Qu’est ce que : Définition de la carte vidéo (graphique)

Les ordinateurs sont composés de plusieurs éléments : microprocesseur, mémoire RAM, disque dur, lecteur DVD,… et la carte graphique, qui est un élément permettant de générer les images qui sont ensuite présentées sur le moniteur (un périphérique).

La carte graphique est la partie du système vidéo qui se trouve à l’intérieur de l’ordinateur.

La carte graphique ou carte vidéo est une partie présente dans tous les ordinateurs qui est chargée de traiter les informations en format de données numériques qui doivent donner naissance aux images, et de les convertir ensuite en un format compréhensible par les moniteurs.
La sortie de ces images générées se fait par des ports vidéo via des câbles spéciaux vers un ou plusieurs moniteurs. Si les ports vidéo font généralement partie de la carte graphique, les autres éléments ne le sont pas, le moniteur étant considéré comme un périphérique, c’est-à-dire un élément extérieur aux composants de l’ordinateur lui-même.

La carte graphique a évolué

En raison de la technologie existante à l’époque, les premiers ordinateurs PC compatibles avaient des capacités graphiques très limitées, qui n’étaient pratiquement utilisées que pour les jeux vidéo et un ensemble très restreint d’utilitaires.
C’était une époque où les environnements graphiques n’étaient pas ‘bien vus’ en tant qu’outil productif, ils n’étaient pas considérés comme ‘sérieux’, uniquement destinés au marché domestique sur les ordinateurs huit bits. Et puis Apple est arrivé et a tout changé.
Les environnements graphiques avec leur nombre d’effets, de transitions et de fonctionnalités n’ont pas été la principale raison de l’évolution des cartes graphiques, mais l’un de leurs moteurs au départ. Plus tard, les jeux vidéo et le multimédia ont joué un rôle moteur dans l’évolution des cartes graphiques.

De vrais ordinateurs dans des ordinateurs

Les exigences de plus en plus élevées des applications faisant un usage intensif de la section graphique des ordinateurs et, en particulier, des jeux vidéo, ont conduit ces derniers à offrir de plus en plus de puissance et, par conséquent, des puces plus complexes qui n’ont aujourd’hui plus grand-chose à envier aux microprocesseurs des ordinateurs classiques.
Le terme GPU, abréviation de Graphics Process Unit (unité de traitement graphique), a commencé à devenir populaire parmi les utilisateurs et désigne la puce électronique qui effectue le travail principal de la carte graphique.
En fait, ce que j’ai mentionné précédemment à propos de la puissance des GPU s’incarne dans le fait qu’il existe des techniques de programmation qui permettent d’utiliser ces puces à des fins générales, comme s’il s’agissait de CPU, et même d’équiper des superordinateurs.

La puissance des GPU les a amenés à être utilisés même dans les supercalculateurs.

NVIDIA est l’un des deux principaux fabricants de GPU, ayant lancé sa propre gamme de GPU et de matériel connexe pour les tâches de supercalculateur.
L’autre grand fabricant est AMD, suite à l’acquisition d’ATI il y a plusieurs années. Si NVIDIA est connue pour sa série de GPU GeForce, AMD/ATI est connue pour sa série Radeon.
Les créations des deux fabricants sont ensuite intégrées par les fabricants de cartes graphiques, qui entourent le GPU du matériel approprié pour des performances optimales, le rendant ainsi prêt à être intégré dans un nouveau PC ou à être vendu à quiconque souhaite mettre à niveau son ancienne machine.