Definición de

Monitor

Pantalla

Un monitor es una pantalla que hace posible la visualización de datos.

Monitor es un término que puede proceder del latín o del inglés, y en ambos casos se escribe igual que en castellano. Su uso en nuestro idioma, por lo tanto, es muy variado. Por un lado, puede tratarse de la persona que guía el aprendizaje cultural o deportivo. Por ejemplo: “Hay un niño golpeado: por favor llama al monitor”, “El monitor del taller nos ha enseñado técnicas muy novedosas para la creación de este tipo de obras”.

Otras utilizaciones del concepto vinculadas a oficios o profesiones permiten nombrar al ayudante de los profesores de educación física, al esclavo que acompañaba a su amo como asistente y al subalterno que colaboraba con el orador romano en el foro.

Un monitor también es un antiguo barco de guerra que navegaba casi sumergido y que tenía calado pequeño. Estas embarcaciones fueron muy populares hasta el siglo XIX, cuando su uso comenzó a decaer.

Si tienes poco tiempo, revisa el índice o el resumen con los puntos clave.

El monitor como pantalla

Monitor, asimismo, puede ser la pantalla que permite observar los parámetros de un paciente conectado a un dispositivo médico. Los latidos del corazón pueden reflejarse de forma gráfica en un monitor de ritmo cardíaco, por ejemplo. El monitor de presión arterial, el monitor de glucosa en sangre y el monitor de frecuencia respiratoria también permiten visualizar variables de importancia.

La acepción más habitual de la noción es aquella que designa al aparato capaz de transmitir imágenes tomadas de una videocámara o de otra fuente. Suele tratarse de un dispositivo de salida que exhibe los resultados del procesamiento realizado por una computadora.

Videogame

Para disfrutar de los videojuegos modernos se necesita un monitor de gaming con buena resolución.

La evolución histórica

La evolución de los monitores en las últimas décadas ha sido considerable, al punto de ofrecer una claridad de imagen comparable con la de una hoja impresa. A la hora de clasificar los monitores en categorías, es importante diferenciar las tecnologías (cómo se fabrican) de los estándares (para qué sirven).

Con respecto a la tecnología utilizada para la fabricación de los monitores, la más conocida fue CRT (tubo de rayos catódicos), desarrollada en 1987 y con cierta vigencia aún en la actualidad, a pesar de la aparición de LCD, LED y OLED, que ofrecen un ahorro energético considerable, una nitidez de imagen muy superior y resultan más cómodos de instalar y manipular, dado que son mucho más delgados y livianos.

Estándares de monitores

Veamos una breve reseña de la evolución de sus estándares, con IBM siempre a la cabeza:

  • MDA (Monochrome Display Adapter): se trata de los monitores monocromáticos. Aparecieron en el año 1981, al mismo tiempo que la placa de video o tarjeta gráfica CGA, producida por IBM. Cabe mencionar que estas pantallas no permitían la representación de imágenes, sino que mostraban texto exclusivamente, el cual soportaba cursiva, negrita y subrayado. Como dato curioso, el característico color verde de su fuente solía producir irritación en los ojos.
  • CGA (Color Graphics Adapter): presentados en el mercado el mismo año que los MDA, fueron los primeros monitores en soportar gráficos a color. Su objetivo principal, a diferencia de los MDA, era ofrecer una mejor experiencia de juego. Para llevar a cabo el procesamiento extra, sus tarjetas gráficas contenían 16 KB, cuatro veces más memoria que las usadas por los MDA.
  • EGA (Enhanced Graphics Adapter): en 1984, IBM presentó este nuevo estándar de visualización gráfica haciendo alusión a sus «mejoras» en el propio nombre (el término enhanced significa «mejorado»). Contaban con el cuádruple de memoria que los CGA y soportaban un rango mayor de colores.
  • VGA (Video Graphics Array): su lanzamiento en 1987 marcó un antes y un después, y lentamente dejó a sus antecesores en el olvido. Las tarjetas VGA normales contaban con 256 KB de memoria de vídeo, y estos monitores eran capaces de desplegar hasta 256 colores en su mínima resolución (320 x 200 píxeles), o una mayor nitidez en modo texto en su máxima resolución (720 x 400). El punto medio, con la popular 640 x 480, combinaba texto y gráficos a 16 colores;
  • SVGA o Súper VGA: fueron lanzados en 1989 en diferentes versiones con el objetivo de superar las resoluciones posibles en los VGA (comenzando por 800 x 600). Aparecieron las primeras tarjetas gráficas de ATI y NVIDIA para acompañar el nacimiento de un estándar que gozaría de un gran éxito durante unos años.
Pantalla

La calibración del monitor implica ajustar variables como el brillo y el contraste.

Diversos usos

Teniendo en cuenta que un monitor es un dispositivo que muestra imágenes tomadas por una cámara o provenientes de una computadora, existen diversos usos de estos artefactos.

Una cámara de seguridad conectada a un monitor permite realizar tareas de control y vigilancia. Incluso es posible crear un circuito cerrado de televisión (CCTV) para optimizar la supervisión.

Gracias a Internet, se puede desarrollar una monitorización remota. De este modo, se pueden observar las imágenes de una cámara ubicada en un lugar X desde un monitor situado en un sitio Y o incluso desde la pantalla de un teléfono.

Esa visualización a distancia abre también la posibilidad de la telesalud o telemedicina. Un médico sentado frente a una webcam o la cámara de un teléfono puede interactuar con un paciente situado en otro sitio que lo observa mediante un monitor, permitiendo una atención de salud digital.

Cómo citar este artículo Publicado por Julián Pérez Porto y Ana Gardey. Actualizado el 12 de septiembre de 2023. Monitor - Qué es, definición, evolución y usos. Disponible en https://definicion.de/monitor/
Buscar otra definición
x