Menu
  • 01
  • 02
  • 03
  • 04
  • 05
  • 06
  • 07
logo-circulo-ahumada
Cartas al Director

Cartas al Director

Envíe su carta...

CONSTITUCIÓN ESPAÑOLA. ARTÍCULO 2 (CUIDADO CON LAS COCES)

CONSTITUCIÓN ESPAÑOLA. ARTÍCULO 2 …

‹‹La Constitución ...

El gran encierro

El gran encierro

No, no me refiero ...

DOMINGOS BENEMÉRITOS

DOMINGOS BENEMÉRITOS

SUMARIO: DOMINGO 04 ...

Sábados culturales en Benemérita al Día

Sábados culturales en Benemérita a…

SUMARIO SÁBADO 03 de...

MANIFESTACION DE ODIO EN ALSASUA

MANIFESTACION DE ODIO EN ALSASUA

Miles de personas ...

Los majaderos de Alsasua

Los majaderos de Alsasua

Tras el acto terro...

Prev Next

hospimedicalpatrocinador

Noticias Cultura

Los inventores del futuro

  • Escrito por Redacción

INVENTORES

El escritor estadounidense Walter Isaacson, autor de las biografías de Albert Einstein y Steve Jobs, publica en España 'Los innovadores', un libro que explora las vidas de las mentes brillantes que forjaron el mundo tecnológico en el que vivimos

Todo gran cambio en la historia de la Humanidad ha tenido una mitología asociada, un conjunto de historias que, a modo de barniz, fijan un semblante de coherencia sobre lo que de otro modo no pasaría de ser una madeja de biografías, decisiones políticas y avances tecnológicos demasiado compleja para la mente. Según esta tradición, apenas una docena de nombres y otros tantos episodios bastan para narrar la Revolución francesa o la totalidad de las Guerras Púnicas.

Pero no vaya usted a pensar que esto se aplica sólo a eventos que se recogen en los libros de Historia. Con un poco de atención, podemos observar cómo los pasajes de historias recientes -con minúscula- sedimentan para formar eso que luego llamaremos Historia -con mayúscula-.

En su último libro, el celebrado escritor y biógrafo norteamericano Walter Isaacson, autor de biografías de algunos de los más grandes mitos de la actualidad -Albert Einstein, o el reciente best-seller sobre la vida de Steve Jobs- parece que ha querido corregir la presbicia histórica a la que él mismo había contribuido con sus obras anteriores. Los Innovadores: Los genios que inventaron el futuro (ed. Debate) es un viaje por las vidas de las personas -en su gran mayoría anónimas y en sorprendente y justa proporción mujeres- que hicieron posible el nacimiento de la informática, el ordenador personal y su fusión con la red para dar lugar al mundo tecnológico que hoy habitamos.

Una computadora es una idea muy extraña que sólo a fuerza de costumbre ha conseguido pasar desapercibida. Desde las primeras y humildes lascas de piedra que los primeros Homo empezaron a fabricar en algún lugar de la geografía africana hace millones de años y que les granjearon un acceso privilegiado a la nutritiva carroña de la sabana, una herramienta ha sido un instrumento creado con un claro, y muchas veces único, objetivo. Un ordenador, sin embargo, es harto más esotérico: una herramienta capaz de hacer prácticamente cualquier cosa siempre que ésta sea computable y se le pida en un lenguaje que pueda comprender.

Ada Byron, condesa de Lovelace.

Ada Byron, condesa de Lovelace, nacida en 1815, fue la única hija legítima del poeta romántico Lord Byron. Ada Lovelace fue, también, la creadora del primer lenguaje de programación de la Historia. Su madre, la baronesa de Wentworth, quiso extirpar el temperamento romántico que la niña parecía haber heredado de su padre con clases particulares de matemáticas más acordes con el «tecnoentusiasmo de la revolución industrial». El cerebro de Ada, sin embargo, optó por integrar ambos mundos en una combinación que «generó en Ada un amor por lo que ella solía llamar ciencia poética», nos cuenta Isaacson. «Pese a los esfuerzos de su madre, seguía siendo digna hija de su padre, con una sensibilidad poética que le permitía ver una ecuación como una pincelada que reflejaba un aspecto del esplendor físico de la naturaleza», explica el autor de Los innovadores. Ada, siendo todavía muy joven, conocería al célebre científico londinense, Charles Babbage, inventor -al menos sobre el papel- de una «máquina analítica».

El ingenio de Babbage formaba parte de una larga tradición. El matemático y filósofo francés Blaise Pascal creó una calculadora mecánica en 1640 capaz de sumar o restar números para aliviar el pesado trabajo de su padre, un supervisor fiscal. Más tarde, el genio de las matemáticas, Gottfried Leibniz, intentó sin fortuna mejorar el artilugio de Pascal con la multiplicación y la división. Babbage fue uno de los muchos que quisieron tomar el testigo de éstos diseñando su propia máquina pero ésta, a diferencia de las anteriores, sería «un computador universal capaz de realizar toda una serie de operaciones distintas basadas en un programa de instrucciones dadas. Así, podría hacerse que realizara una tarea y luego alterarlo para que pasara a realizar otra». De haberlo conseguido, Babbage se habría adelantado un siglo a su tiempo.

Nunca logró fabricar la máquina, pero sí diseñarla, y para conseguir este objetivo, Lovelace fue esencial. Ada había ampliado su formación gracias a otra célebre científica de la época, Mary Somerville, y acabó por convencer a Babbage para colaborar en el diseño de las tarjetas perforadas inspiradas en los telares mecánicos que debían controlar su funcionamiento. Es decir, Ada Lovelace fue la primera programadora de la historia. Sus programas describieron por vez primera los conceptos de «subrutina» o «bucle recursivo» que hoy son familiares a cualquier aficionado a la computación.

La primera (y fallida) computadora

Alan Turing, padre de la informática moderna.

Uno pensaría que en la siguiente iteración en esta historia, el equipo de genios detrás de la invención llegaría a mejor puerto. No fue así. La historia más agridulce en el libro de Isaacson es la de John Vincent Atanasoff. Nacido en 1903, este hombre fue el creador de la primera computadora parcialmente digital que incorporó tubos de vacío. Lo hizo en 1937 en la Universidad Estatal de Iowa tras, reza la historia, encontrar la inspiración en un largo viaje en coche. Cinco años de duro trabajo más tarde, tan sólo faltaba solventar un recurrente problema con uno de los mecanismos generador de chispas para tener la máquina completa.

¿Qué sucedió luego? Nada. «Cuando en 1948 se necesitó el espacio para otros usos, un estudiante de la universidad desmontó [la máquina], sin comprender lo que era, y desechó la mayoría de las piezas. El ingenio, con más de 300 tubos de vacío y el potencial para haber sido uno de los pasos clave hacia las computadoras digitales que hoy conocemos, quedó relegado al sótano de la universidad. Atanasoff fue reclutado por el ejército y no volvió a dedicarse a su máquina. Muchas de las primeras historias de la era informática ni siquiera mencionan el episodio». La moraleja, para Isaacson -una que se repite a lo largo del texto-, es que el prototipo de genio solitario que la literatura ha cincelado en nuestras mentes, aunque existe, raras veces consigue algo de valor. La revolución digital de Isaacson está compuesta de equipos cuya receta para el éxito incluye la mezcla de talentos tecnológicos y humanísticos y una sólida presencia femenina que la historia parece haber relegado al olvido.

Hacia mediados del siglo pasado, las matemáticas o la ingeniería eran algo menos que hoy un gueto masculino. La Universidad de Pennsylvania, por ejemplo, contrataba «computadoras», es decir, mujeres que «realizaban tareas matemáticas prescritas al detalle [como] calcular tablas de trayectorias de proyectiles de artillería para el ejército». Jean Jennings, nacida en una familia humilde en Missouri y fruto de un robusto sistema de educación pública, formó parte del selecto grupo de seis mujeres que trabajaría en ENIAC -siglas en inglés de integrador y computador electrónico numérico-, una de las armas secretas de los aliados contra el Ejército alemán. Jennings y sus compañeras fueron las ingenieras detrás de los softwares más sofisticados de la época.

Los 'hippies' y la contracultura digital

Después de la Segunda Guerra Mundial, la historia del ordenador digital sigue un curso conocido y detallado en el libro de Isaacson: John Von Neumann, Alan Turing y Vannebar Bush, el transistor, el primer compilador informático -obra de otra mujer, Grace Hopper-, Moore y su Ley, la carrera espacial, etc. El texto cobra de nuevo mucha fuerza en la antesala del ordenador personal o PC. «Hasta entonces, ésta era una historia de grandes máquinas, corporaciones y universidades. En 1970, las corporaciones de la Costa Este [de los EEUU] eran muy jerárquicas, con un control vertical. En cambio, la contracultura y el movimiento hippie en la Costa Oeste se resistían a la autoridad, se rebelaban ante el control directo y [la unión de ambos] hizo posible el nacimiento del PC e Internet», explica Isaacson en una entrevista exclusiva con EL MUNDO.

Bill Gates y Paul Allen, fundadores de Microsoft.

Su teoría dice así: existió un triángulo platónico en los años 70 y 80, en cuyos vértices estaban los rebeldes de la contracultura que querían desarrollar herramientas creativas para dar el poder a los ciudadanos, el poderoso Ejército norteamericano de la Guerra Fría que quería crear potentes computadoras y sistemas de comunicación llenos de redundancia que lo salvaguardaran ante la amenaza nuclear y, por último, las grandes corporaciones estadounidenses que, en plena expansión global, detectaron la posibilidad de pingües beneficios en no sólo la computación industrial, sino también la personal. Estos extraños compañeros de viaje hicieron real la proverbial «tensión creativa» y, cada uno persiguiendo sus intereses, crearon la era del PC e Internet.

Los detalles de la historia son demasiados para desgranarlos aquí y los personajes son harto más conocidos que los anteriores: Jobs, Woz y el Mac; Gates, Allen y Windows; la World Wide Web, los módems ruidosos a 33.000 baudios, el iPod o la llegada de los smartphones. Como en el famoso viaje del héroe de Joseph Campbell, lo más interesante de esta historia es su estructura, que se repite -una y otra vez- a lo largo de sus diferentes episodios, encarnada en personajes, lugares y situaciones distintas que, sin embargo, tienen una melodía común: equipos, no individuos; promiscuidad intelectual, no especialización; la omnipresente voluntad de ver más allá e interpretar el mundo de una manera poética. Isaacson extrae de esta lista de atributos un par de lecciones para el mundo de hoy.

La primera es que el sistema educativo que especializa y se obsesiona con títulos específicos, muy lejos de lo que apuntan los héroes del libro, lo está haciendo mal. «Puede que precisamente por eso, Bill Gates, Steve Jobs y Mark Zuckerberg abandonaran la universidad. A veces, innovar significa cuestionar la autoridad y tener una educación que siga a tu imaginación. Eso es lo que una gran cantidad de innovadores hizo». Es más, Isaacson está convencido de que si no cambiamos, «vamos a perder a la próxima generación de Jean Jennings».

La segunda es que sólo en Occidente pudo tener lugar esta «tensión creativa» entre la contracultura, el ejército y las corporaciones porque aquí estamos «cómodos con una cultura que cuestiona la autoridad [...] En una sociedad autoritaria, es difícil ser innovador. Va a ser más complicado que China o Rusia triunfen en la era digital porque no están tan cómodas como EEUU o España permitiendo la libre discusión de ideas, la circulación de información». La tensión suscitada por las revelaciones de Snowden sobre algunos de los programas secretos de la NSA son, para Isaacson, «parte de la historia de la tecnología [...] es bueno que [Snowden] esté en la televisión hablando porque estamos en una sociedad sana donde podemos debatir abiertamente estos asuntos».

Ya inmersos en la era digital, además de echar la vista atrás y elaborar una mitología más justa con las mujeres y los hombres que la hicieron posible, podemos también mirar hacia delante e intentar adivinar cómo va a cambiar nuestro mundo en las próximas décadas. Isaacson, con el olfato desarrollado de quien ha pasado buena parte de su vida conversando con los creadores de esta revolución, sospecha que los micropagos y herramientas como bitcoin pueden hacer posible un futuro en el que la economía online no fagocite el periodismo de calidad y el trabajo creativo.

Él, además, dice no temer a la obsolescencia humana ante el ascenso de la inteligencia artificial. Todo es cuestión de equilibrio. «La mayoría de los héroes de mi libro son capaces de apreciar la ciencia y las humanidades. Valoran el arte y la tecnología», asegura Isaacson. O, como escribiera la programadora Ada Lovelace «la máquina analítica no tiene en absoluto pretensión alguna de originar nada». Ambas mentes, humana y artificial, son esencialmente distintas y es de su colaboración de donde debe surgir la próxima gran revolución.

EL MUNDO

Benemérita al día

Actualidad

Cultura y Sociedad

Otras Secciones

Boletín de Noticias

SUSCRÍBETE >> Recibe gratis todas las noticias en tu correo
Términos y Condiciones