¡Estos son los momentos en que la tecnología cambió el mundo! | Parte 1

Desde que OpenAI lanzó ChatGPT, el mundo cambió para siempre. Muchos creen que la IA nació en ese momento, pero, ¿sabías que para llegar a ese punto, tuvieron que pasar casi 80 años? Te lo cuento porque en español, #NadieExplicaMejor que EDteam.

Diseño web
8 minutos
Hace 5 meses
¡Estos son los momentos en que la tecnología cambió el mundo! | Parte 1

¡Accede a cientos de cursos
con solo un pago al año!

Blog Microbanner

En noviembre de 2022, OpenAI lanzó ChatGPT y el mundo cambió para siempre. Comenzó una carrera sin frenos por la Inteligencia Artificial y de la noche a la mañana muchos trabajos quedaron en riesgo de desaparecer.

imagen-relacionada-EDteam

Muchos creen que la Inteligencia Artificial nació en ese momento, pero, ¿sabías que para llegar a ese punto tuvieron que pasar casi 80 años? 80 años de investigaciones, experimentos, mucho dinero invertido y muchas frustraciones.

Y es que aunque la tecnología cambia al mundo, su mayor impacto ocurre cuando sale de los círculos científicos y se pone a disposición de todas las personas. Ese es el momento mágico en el que comienza una completa revolución y todo lo que conocemos se transforma frente a nuestros ojos.

reunion-cientificos-imagen-relacionada-EDteam

Y la Inteligencia Artificial es tan solo la última de estas revoluciones.

¿Cuáles han sido esos momentos mágicos en que la tecnología transformó a la humanidad y cuáles son las historias detrás de estos momentos? Eso es lo que aprenderás en este artículo. Un viaje fascinante por los momentos en que el mundo cambió para siempre porque la tecnología salió del entorno científico y se le entregó ese enorme poder a todas las personas.

Por cierto, este blog se nos hizo tan largo que decidimos dividirlo en dos partes para que puedas verlo con mayor comodidad. Así que no te olvides seguirnos y activar la campanita para no perderte la segunda parte.

Ahora sí, ponte cómodo, prepara tus palomitas y alístate para un viaje lleno de conocimiento y de historia.

Porque estás en EDteam y tú sabes que en español, nadie explica mejor.

1. El transistor

Comenzamos este recorrido por el que es, probablemente, el invento más importante en la historia de la humanidad. Habrá quienes digan que no, pero gracias a este invento se masificaron las computadoras, se impulsaron los viajes espaciales, llegó internet, los smartphones y la inteligencia artificial, entre otros muchos avances. Gracias a este invento la tecnología se puso al alcance de todo el mundo y es nada más ni nada menos que el transistor.

1. El álgebra de Boole y el bit

Para entender por qué es tan importante debemos viajar mentalmente a mediados del siglo XIX, al año 1854, hace 170 años, cuando el matemático británico George Boole publicó su libro An investigation of laws of thought (Una investigación de las leyes del pensamiento). En este libro, Boole plantea que nuestros pensamientos siguen una lógica que puede explicarse con fórmulas matemáticas cuyos resultados son sí o no y cuyos operadores son and (y), or (o) y not (no).

Como ejemplo, analicemos la siguiente oración:

Si tengo pan y tengo jamón, puedo preparar un sandwich.

Este es un ejemplo de álgebra booleana, porque si ambas condiciones son verdaderas (tengo pan y tengo jamón) el resultado también es verdadero. Pero si solo una de las condiciones es falsa, el resultado será falso.

Noventa años después de esta teoría, en 1937, Claude Shannon propone que el álgebra booleana, que para entonces solo se usaba en matemática y lógica, también puede aplicarse en circuitos eléctricos usando interruptores, donde encendido sería igual a verdadero (o uno) y apagado a falso (o cero). Esto lo propone en su tesis doctoral: A symbolic analysis of relay and switching circuits (Un análisis simbólico de relés y circuitos de conmutación) que es uno de los artículos científicos más importantes de la historia de la computación, porque a partir de él los interruptores fueron la base de las computadoras, se desarrolló el concepto de puertas lógicas y fue Claude Shannon quien inventó el terminó bit, para referirse a la mínima unidad de información que puede ser uno o cero.

2. La búsqueda del transistor

¿Pero qué interruptores se podían usar en una computadora? Obvio que no los que usas para prender las luces de tu casa, se usaron relés o interruptores electromecánicos y luego tubos de vacío que eran más veloces y silenciosos.

transistor-imagen-relacionada-EDteam

Por ejemplo, en 1946 se lanzó la primera computadora: el ENIAC, que usaba 17 mil tubos de vacío, mil quinientos relés, pesaba 27 toneladas, medía 30 metros de largo y podía realizar hasta cinco mil operaciones por segundo. Como dato, una laptop con el procesador M1 de Apple es 500 millones de veces más poderosa que el ENIAC. Y como habrás adivinado, el ENIAC (y otras computadoras de su tiempo) le debía su gigantesco tamaño a los interruptores que usaba.

imagen-relacionada-eniac

Si tan solo se pudieran crear interruptores más pequeños, que no se sobrecalienten ni que se rompan, podríamos crear computadoras más pequeñas y poderosas.

Eso fue lo que se propusó William Shockley cuando en 1945, terminada la Segunda Guerra Mundial, se unió a los Laboratorios Bell: inventar un mejor interruptor. Era un físico teórico experto y legendario: se rumoreaba que era capaz de ver los electrones a simple vista. Según sus teorías, se podían usar elementos semiconductores como el silicio o el germanio pues su naturaleza de “semiconductores” permite que dejen pasar la corriente o la bloqueen según las circunstancias, es decir, se podían comportar como un interruptor.

Sin embargo, como dice el refrán, del dicho al hecho, hay mucho trecho. Porque si bien las teorías de Shockley funcionaban sobre el papel, en la práctica ninguno de sus experimentos dio resultado. Así que dos miembros de su equipo, Walter Brattain y Jhon Bardeen empezaron sus propios experimentos con las teorías de Shockley y luego de casi dos años de prueba y error consiguieron, en diciembre de 1947, que una pieza sólida de metal pueda conducir, bloquear o amplificar la corriente eléctrica.

Piénsalo un momento: una pieza sólida de metal actuaba como interruptor y amplificador de corriente. Era algo grandioso. Habían inventado el transistor.

Lo increíble es que muchos científicos de su época no se dieron cuenta del avance que suponía el transistor. El New York Times lo enterró en la página 46 de sus noticias y el Time lo puso al inicio de su sección de ciencia, diciendo que era una pequeña neurona.

3. La revolución del transistor y el inicio de Silicon Valley

Este nuevo interruptor permitió aparatos electrónicos mucho más pequeños. En los años 50 y 60, los radios portátiles eran el equivalente a los smartphones de la actualidad, te permitían estar conectado y escuchar música o noticias en cualquier lugar, sin estar atado a gigantescos radios en las salas de tu casa donde solo tu papá decidía que se podía escuchar. Por ese entonces empezó la fiebre del rock que se popularizó rápidamente gracias a las radios portátiles. Y las radios fueron solo el inicio, luego vendrían otros como calculadoras de bolsillo o audífonos.

imagen-relacionada

Pero el transistor no se quedó solo en electrodomésticos, ya que Shockley, convencido de que este invento cambiaría el mundo, viajó a Palo Alto en California para fundar Shockley semiconductor, la primera empresa de transistores en la zona que hoy se conoce como Silicon Valley.

Así que podemos decir que el transistor también dio inicio a Silicon Valley. Si quieres saber más de la historia de Silicon Valley tenemos este video que puedes ir a ver después de leer este artículo.

4. La creación del microchip

Sin embargo los transistores tenían un problema: trabajar con muchos de ellos requería de una telaraña de cables para conectarlos. Así que nuevamente los científicos se pusieron a trabajar para resolver este reto y lo lograron en 1958, cuando Jack Kilby de Texas Instruments y Robert Noyce, de Fairchild Semiconductor, casi en simultáneo y sin conocerse, descubrieron como tener varios transistores en una sola pieza y sin cables. Y le llamaron a su invento: chip (o microchip).

El primer chip de la historia tenía apenas 4 transistores en su interior. Mientras que el M4 de Apple, lanzado este año tiene 28 mil millones de transistores y los Blackwell de Nvidia, lanzados también este año, tienen casi 10 veces más con 208 mil millones de transistores en su interior. Una monstruosidad. Y mientras más transistores se agreguen a un chip, este será más poderoso, por eso cada cierto tiempo se reduce su tamaño, tanto que actualmente un transistor mide tres nanómetros, un tamaño tan reducido que es casi el de un átomo.

¿Y como es posible pasar de 4 transistores a miles de millones? Porque la industria empezó a mejorar sus métodos de fabricación de chips para incluir cada vez más transistores. Por eso en 1965, Gordon Moore, cofundador de Intel, hizo un pronóstico que la historia recuerda como la ley de Moore. Predijo que cada dos años el número de transistores dentro de un chip se duplicaría mientras que el costo se reduciría a la mitad. Esa ley se ha venido cumpliendo casi sin fallas hasta la actualidad, aunque obviamente, las leyes de la física tarde o temprano le pondrán un límite.

Los chips son actualmente el producto más importante en la economía mundial, para nuestras computadoras, televisores, smartphones, refrigeradoras, hornos microondas, aparatos médicos, aviones, centrales de comunicación, fábricas y obviamente, la inteligencia artificial. Y los chips son en realidad, muchos, millones, miles de millones de transistores en una placa de silicio.

2. La computación personal

Aunque no lo creas, las primeras computadoras eran seres humanos, es decir, era un empleo como el de abogado o contador. Estas computadoras humanas realizaban muchos cálculos complejos que luego eran publicados en extensos volúmenes como la Table of Reciprocals, que tenía cientos de páginas llenas de cifras.

resolver-calculos

Imagínate el tiempo que tomaba resolver un cálculo matemático usando esas tablas, ojeando valor por valor hasta dar con el que necesites.

¿Y para que se necesitaba hacer cálculos tan complejos? Aunque no lo creas, el principal uso era militar, se necesitaba calcular con precisión el lugar donde iba a caer una bomba. Es increíble que le debamos a las bombas la creación de las computadoras pero así fue.

1. Las primeras computadoras: mainframes y minicomputadoras

Gracias a las teorías de Alan Turing y Claude Shannon pudimos pasar de calculadoras mecánicas que servían para resolver problemas específicos a computadoras universales que se podían programar para resolver cualquier tipo de problema.

Las primeras computadoras eran enormes, pesaban varias toneladas y medían decenas de metros. No existían lenguajes de programación sino que se usaban cables e interruptores, así que programar una computadora en esos tiempos era básicamente volverla a ensamblar. Esas primeras computadoras se parecían más a un laboratorio que a un dispositivo personal como hoy en día. ¿Y que persona quiere tener un laboratorio en su sala o en su cocina? Nadie. Eso fue exactamente lo que pensaron los ejecutivos de Xerox y de HP ante la idea de crear una computadora personal. Las computadoras eran para científicos, no para que un niño juegue al tetris o un ama de casa controle sus finanzas.

Grave error de visión.

Y sin embargo, con el avance de los chips que cada vez tenían más transistores, era inevitable que las computadoras se vuelvan cada vez más pequeñas. Y así pasamos de los gigantescos mainframes a las minicomputadoras, como la PDP-7, que aunque suena a chiste decirle mini computadora porque eran más grande que una refrigeradora de dos puertas, eran pequeña en comparación a los mainframes de varios metros y varias toneladas. Como anécdota, en la PDP-7 primero y en la PDP-11 después se desarrollaron tanto el lenguaje C como el sistema UNIX.

Pero aún así seguían siendo computadoras para el uso científico. La primera computadora personal la fabricó Xerox en 1970 y se llamaba Xerox Alto. Se parecía mucho a una computadora actual, con su monitor y su gabinete para los componentes. Solo que el monitor era vertical. Lamentablemente, se quedó para uso interno en la compañía y jamás salió al mercado porque, ya sabes: “Quién quiere tener una computadora en su casa”.

2. Las primeras “computadoras personales”

La primera computadora personal vendida al público se demoró un poco más y fue lanzada en 1974 por la empresa MITS en un artículo de la revista Popular Electronics que llegó a manos de Bill Gates, de apenas 18 años y su amigo Paul Allen; quienes se dieron cuenta, automáticamente, que acababa de iniciar una revolución y se apresuraron a lanzar el primer software para el Altair y de paso fundaron Microsoft. El Altair no tenía monitor ni teclado, y usaba interruptores y luces para la entrada y salida de datos en binario. Así que aunque era personal, aún seguía siendo de uso técnico.

La computadora verdaderamente personal se demoró unos años más y llegó gracias a dos amigos y tocayos, a quienes les gustaba la tecnología y jugar bromas pesadas: Steve Jobs y Steve Wozniak. Uno era un genio del hardware pero muy tímido para hablar con la gente, y el otro tenía una habilidad increíble para convencer y ver oportunidades de negocio. Eran la dupla perfecta para la revolución que estaba a punto de comenzar.

Fue Wozniak quien creó la primera computadora personal como un proyecto propio y pensó en regalar su diseño a la comunidad de aficionados en el club de electrónica al que asistía: el Homebrew Computer Club. El prototipo estaba dentro de una carcasa de madera con teclado y se conectaba a un televisor para usarlo de pantalla. Cuando Steve Jobs la vio, se quedó maravillado y le dijo a Wozniak que era una locura regalarla y que sería mejor venderla. Así que luego de que Wozniak la presentara en el club, Steve Jobs preguntó a los asistentes quienes estaban dispuestos a comprarla y así cerró su primera venta a una tienda de electrónica local. Aunque seguía siendo una placa de circuitos solo para aficionados a la electrónica. Aun no teníamos a la primera computadora personal.

Pero esta placa de circuitos dio inicio a Apple Computer, fundada en 1976, un año después de la fundación de su archirrival, Microsoft. Ambas empresas impulsaron como ninguna otra, la computación personal hasta nuestros días. Lo curioso, como te estarás dando cuenta, es que ambas fueron empresas nuevas, porque de las antiguas, ninguna se dio cuenta de la revolución que se acercaba.

3. Las primeras computadoras realmente personales: Apple II e IBM PC

Fue en 1977 cuando finalmente se lanzó la primera computadora personal, es decir, para todo público, no solo para aficionados a la electrónica: el Apple II. Un éxito en ventas que hizo que Apple saliera a la bolsa y se convirtiera en una empresa multimillonaria y convirtió a Steve Jobs en la estrella joven más importante de Silicon Valley. En ese entonces, Bill Gates solo era un lacayo que trabajaba bajo las órdenes de Jobs. Pero eso pronto iba a cambiar.

IBM, que era el principal fabricante de computadoras, se dio cuenta rápidamente que había cometido un error al menospreciar a las computadoras personales y decidió ponerse al día lanzando la IBM PC (o personal computer) en 1981, como respuesta al Apple II. Sin embargo, no tenían tiempo para desarrollar el sistema operativo, así que recurrieron a Microsoft para que lo desarrolle. Bill Gates, delgado y con unos lentes enormes, parecía un niño frente a los ejecutivos de IBM que no lo tomaban en serio. Pero eso le jugó a su favor porque les dijo que no les iba a vender el software sino que se los iba a licenciar (o sea, alquilarlo). A los ejecutivos de IBM no les importó, porque pensaban que el negocio estaba en el hardware, no en el software. Y lo que querían era acabar con el Apple II.

Error.

La IBM PC fue todo un éxito de ventas e hizo que muchas empresas lanzaron sus propias versiones de PC compatibles con el software de IBM; o mejor dicho, con el software de Microsoft. Así que Microsoft se convirtió en el rey de la computación personal porque todo fabricante, excepto Apple, debía pagarle regalías.

apple-ibm-imagen-relacionada-EDteam

4. El reinado de Microsoft y el retorno de Steve Jobs

En enero de 1985, Apple lanzó la Macintosh, la primera computadora con interfaz gráfica, ratón y a color. Una revolución para la época. Sin embargo, ese mismo año Steve Jobs fue despedido de Apple y las PC dominaron el mundo, con Intel y Microsoft comiéndose el mercado.

Como dato, si entendiste esta historia, las PC son solo las que usan Windows. Ninguna Mac es PC.

En 1997, Steve Jobs regresó a Apple y la empresa volvió a ser relevante en la computación personal. En 2007 lanzaron el iPhone, que es también una computadora personal, pero móvil y en 2011 el iPad, con Steve Jobs diciendo que había llegado la era post PC (recuerda que las Mac no son PC, así que era un codazo para su rival y medio amigo, Bill Gates).

Pero ya sea Windows, Mac o incluso Linux, las computadoras personales han demostrado que los ejecutivos de hace 60 años estaban completamente equivocados, todos necesitamos una computadora en casa. O en el bolsillo.

3. Internet y la web

En un inicio, las computadoras eran gigantescos laboratorios que ocupaban grandes espacios y pesaban varias toneladas. Pero además de su gran tamaño tenían otro problema: no eran compatibles entre sí, así que si queríamos compartir datos entre ellas o hacer que trabajen juntas en una tarea había que buscar un protocolo estándar de comunicación.

computadora-imagen-relacionada-antigua

1. El proyecto ARPANET

En 1960, Joseph Carl Robnett Licklider (o Lick para abreviar) publicó el artículo Man-Computer Symbiosis en el que proponía una visión en que las computadoras y los seres humanos trabajen juntos apoyándose unos a otros. Para conseguir esta visión, se necesitaba crear redes de computadoras.

En 1962 Licklider entró a trabajar a ARPA, una agencia de investigación del Departamento de Defensa de Estados Unidos cuyo nombre cambió a DARPA en 1972. Dentro de ARPA, inició al proyecto ARPANET que sería la semilla de internet, aunque a Lick le gustaba llamarla Red Intergalática de Computadoras.

El reto para conectar computadoras era conseguir un protocolo de comunicación para que todas hablen el mismo idioma. La creación de ese protocolo estuvo a cargo de Vinton Cerf y Robert Kahn que en 1974 desarrollaron TCP/IP, el protocolo que le da vida a Internet. Este protocolo consta de dos partes: TCP, que se encarga de partir la información en pequeños bloques (o paquetes) mientras que IP se encarga de identificar cada computadora con una dirección única. Por lo tanto, en el punto inicial los datos se dividen en pequeños paquetes usando TCP, se busca el destino con IP y se envían uno a uno los paquetes a ese destino, en el cual volvían a ensamblarse usando el mismo protocolo TCP. Básicamente una teletransportación, como en las películas, pero de datos. Vinton Cerf y Robert Khan llamaron a ese proceso de comunicación Internetting.

guerra-de-datos

2. La evolución de ARPANET

Internet no se creó de golpe, sino que el proyecto ARPANET pasó por muchas etapas:

  • -En 1969 se logró la primera comunicación entre dos computadoras, aunque fue solo de dos letras.
  • -Al año siguiente, 1970, se logró la primera conexión estable entre dos computadoras.
  • -En 1971 la red se extendió a 15 nodos que incluían universidades y centros de investigación.
  • -En 1973 se logró la primera comunicación internacional entre una computadora de Estados Unidos con el Reino Unido y Noruega.
  • -En 1974, se creó el protocolo TCP/IP como ya vimos.
  • -En 1983 se implementa el protocolo TCP/IP en toda la red de ARPANET y se empieza a popularizar el término Internet.

3. La creación de la web

Pero aún así, Internet seguía siendo de uso científico y no fue sino hasta 1989 cuando un científico del CERN en Suiza llamado Tim Berners Lee se dio cuenta de que internet podía usarse de una forma más sencilla para ayudarle en sus investigaciones. Para eso desarrolló el concepto de hipertexto, un formato de texto que a través de hipervínculos (o links) podía conectarse con otro documento de hipertexto formando una gigantesca red de información usando la conexión a internet.

tim-berners-lee-blog.jpg

Para que su invento funcione creó tres tecnologías: el lenguaje HTML, para escribir el código de estos documentos de hipertexto (que con el tiempo se conocieron como páginas web), el protocolo HTTP para enviar y recibir ese código HTML a través de una conexión a internet y un navegador llamado WorldWideWeb que permitía visualizar y editar estas páginas web. En 1991 todo estaba listo y lanzó la primera página web de la historia que hasta el día de hoy está disponible y puedes visitar.

Así que, Internet y Web no son lo mismo. La web es un conjunto interconectado de información a través de documentos HTML que usa a Internet como medio de comunicación. Se puede decir que la web es el uso más famoso de Internet.

web-imagen-relacionada.png

Tim Berners Lee pudo volverse multimillonario con su creación porque casi todo lo que hacemos hoy en una computadora se basa en tecnologías web (incluso la inteligencia artificial) pero sus intereses eran académicos así que no patentó su invención y la abrió libremente para quien quisiera usarla, renunciando tanto él como el CERN a toda propiedad intelectual.

4. La guerra de los navegadores

Poco después, en 1993 Marc Andreessen lideró el equipo que desarrolló Mosaic, el primer navegador web popular de la época que además de texto podía mostrar imágenes.

imagen-relacionada

Pero Mosaic tenía un problema: los derechos le pertenecían a la Universidad de Illinois donde fue desarrollado. Así que no podían comercializarlo ni ganar dinero con él, por lo que Andreessen se asoció con el inversionista Jim Clark para crear un nuevo navegador al que llamaron Netscape Navigator.

Netscape se lanzó en 1994 e hizo que la web explote y llegue a todas partes en el mundo, a personas de todas las edades y todas las profesiones. De un momento a otro tenías mucha información a un click de distancia, cuando la necesites. Era una maravilla. Al año siguiente, en 1995, Netscape salió a la bolsa y volvió a todos sus fundadores multimillonarios.

socios de netscape.png

La revolución de la web gracias a Netscape fue tan grande que Microsoft, que se había quedado dormido, lanzó Internet Explorer como respuesta y atacó a Netscape con todo lo que tenía.

guerra netscape vs explorer.png

Sin embargo, aunque Netscape cayó derrotada, antes de morir liberó su código esperando que alguien continúe con el legado creando así el concepto de Open Source en 1998. Por su lado, aunque venció en la guerra de los navegadores, Microsoft quedó muy malherida porque fue demandada por monopolio y el mismísimo Bill Gates lloró durante el juicio por el nivel de presió

Una vez terminado el proceso, Bill Gates renunció como CEO de Microsoft y dejó en el cargo a Steve Ballmer. Así que ambas compañías quedaron heridas después de esa guerra.

5. La revolución de la web

Y mientras Microsoft se peleaba a muerte con Netscape en la guerra de los navegadores, en 1994 un corredor de bolsa de New York llamado Jeff Bezos vio el crecimiento de la web y renunció a su trabajo para crear una página web de venta de libros a la que llamó Amazon. En 1995, un estudiante de doctorado de Stanford llamado Elon Musk vio el crecimiento de la web y abandonó sus estudios para crear Zip2, que sería el Google Maps de la época. En 1997, un emprendedor harto de las multas que tenía que pagar por devolver tarde las películas en Blockbuster, creó una página web de alquiler de películas por correo y la llamó Netflix. Y uno año después unos estudiantes de doctorado, viendo también el crecimiento de la web, crearon un algoritmo para encontrar la información que necesites y fundaron Google en 1998. En 2004 un estudiante de Harvard llamado Mark Zuckerberg creó una página web para conectar con tus amigos y la llamó Facebook.

Y todo esto habría sido imposible si Tim Berners Lee no habría decidido regalarle su creación a la humanidad.

Sin duda alguna, la web fue uno de los más grandes momentos de la historia de la tecnología. Creó imperios, llevó la información a todos los lugares del mundo y definió la arquitectura en la que se basarían las siguientes tecnologías.

Y así llegamos a la mitad de este viaje por las tecnologías que cuando salieron de los círculos científicos y se pusieron a disposición de todo el mundo, lo cambiaron todo. ¿Qué te ha parecido? ¿Te diste cuenta que la Inteligencia Artificial es tan solo la más reciente de estas revoluciones? Pero no es la última y se van a venir bastantes más.

Así que no te pierdas la segunda parte en la que hablaremos de las siguientes revoluciones tecnológicas y de lo que nos depara el futuro. ¿Computación cuántica personal? ¿Autos voladores? ¿Robots en cada casa? ¿Viajes a marte? Lo veremos en el próximo artículo.

De lo que no queda duda es que la tecnología no se detiene, te guste o no. Por eso hoy es más importante que nunca invertir en tu educación. Porque la otra alternativa es quedarte desactualizado y que una máquina te reemplace. Solo porque no te tomaste el tiempo de aprender a usar la tecnología.

Por eso no te pierdas ninguno de neustros arcítulos y síguenos en nuestras redes sociales para mantenerte actualizado en el mundo de la tecnología, la programación y la inteligencia artificial. Y visítanos en ed.team para comenzar a estudiar gratis cualquiera de nuestros cientos de cursos para que compruebes por ti mismo porque en español, #NadieExplicaMejor que EDteam.

Y cuando te pregunten como sabes tanto de revoluciones tecnológicas, responde que lo aprendiste en EDteam.

Comentarios de los usuarios