La evolución de los microchips: avances tecnológicos que revolucionan el Mundo

La evolución de los microchips: avances tecnológicos que revolucionan el Mundo

Fernando Álvarez Bogaert.

A mis hijos Jason y Alexandra Leedy, quienes han dedicado su vida a la alta tecnología.

En las últimas décadas, los microchips se han convertido en componentes esenciales de nuestra vida cotidiana. Estos pequeños dispositivos electrónicos han evolucionado rápidamente, impulsando avances tecnológicos en casi todos los campos del mundo contemporáneo. Desde los primeros fabricados de silicio (no metal sólido) hasta los más avanzados de hoy en día, su desarrollo ha sido clave para el progreso en áreas como la informática, electrónica, medicina e inteligencia artificial. El presente artículo, estructurado en tres entregas, explora la fascinante evolución de como este diminuto objeto va transformando nuestras vidas. En la era tecnológica actual cualquier equipo electrónico del hogar, industrial, etc. hasta instrumentos de intercambios financieros como las tarjetas de crédito, disponen del microchip creado hace más de 50 años por el físico e ingeniero eléctrico estadounidense Jack St. Clair Kilby mientras trabajaba en Texas Instrument en 1958 y acababa de incorporarse a la plantilla laboral para solucionar los problemas de conexión de los componentes electrónicos de la empresa, focalizada en desarrollar y comercializar semiconductores de electricidad y tecnologías para ordenadores, lo que marcaba de este modo el comienzo de una nueva era en la tecnología. La década de 1970 marcó un hito en la evolución de los microchips con el advenimiento del denominado microprocesador que se convertía en la unidad central de procesamiento (CPU) de una computadora. El Intel 4004, lanzado en 1971, fue el primer microprocesador comercializado, y tenía una capacidad de procesamiento de 4 bits (unidad mínima de información); a medida que la tecnología avanzaba, se volvió más potente y eficiente, permitiendo, entonces, que Gordon Moore creara la ley que lleva su apellido (Ley de Moore) estableciendo que el número de transistores en un circuito integrado (elementos que son inseparables e interconectados eléctricamente) se duplica aproximadamente cada dos años, mientras que el costo por transistor tiende a disminuir.

Puede leer: Un desafío negativo nacional con pocos precedentes históricos

El lanzamiento del Intel 8086 en 1978, con una capacidad de 16 bits, sentó las bases para la arquitectura de los microprocesadores modernos. A medida que avanzaba la década de 1980, la miniaturización se convertía en un objetivo clave en la evolución de los microchips, pues, los avances en la tecnología permitirían reducir el tamaño de los transistores y aumentar la densidad de componentes en los primeros y, al integrarle más funciones provocó que desempeñaran propósitos específicos, como los controladores de pantalla y sonido. Para tener una idea de la impresionante evolución de los microprocesadores con relación al contenido de transistores veamos: Para el año 1985 tenía 275 mil, mientras que para el 1997 la cantidad de 7.5 millones, creciendo de modo exponencial para el 2008 al contar con 731 millones; para el año 2022 Apple llegó a la impresionante cifra de 114,000 millones de transistores, esto es posible con la miniaturización nanométrica (se refiere a una millonésima parte de un milímetro) de los conductores.