¿Cómo fue evolucionando la información desde la escritura hasta la inteligencia artificial que hoy nos está acompañando?
Introducción
Debo ser sincero, el término “tecnología” hasta hace muy poco tiempo lo asociaba a sistemas, informática, computadoras o cuestiones por el estilo, y cuán equivocado estaba. Te lo explico a continuación.
Los historiadores han registrado a lo largo del tiempo, las experiencias de infinidades de civilizaciones que demuestran los desarrollos con diversas tecnologías para almacenar y transmitir información.
Así como nosotros, los testers ágiles, generamos issues en Jira del tipo error (productivo y/o no productivo) adjuntando evidencias, también hay evidencia histórica de estas “tecnologías” que representaron hitos históricos, desde el sistema de escritura cuneiforme desarrollado por primera vez por los antiguos sumerios en Mesopotamia 3500-3000 antes de Cristo, la imprenta de Gutenberg allá por 1450 después de Cristo, un sistema que transformaría la difusión del conocimiento en Europa hasta la forma actual en la que manejamos nuestra información, a partir del comienzo de la llamada era digital que se considera comenzó por la década de 1940.
El tratamiento de la información ha evolucionado de manera significativa a lo largo del tiempo, y con la inteligencia artificial nos hace suponer que habrá otro tipo de evolución acelerada por ser tan disruptiva.
La escritura y el conocimiento
Todo inició hace más de 5,000 años con la escritura de los sumerios, quienes desarrollaron un sistema de símbolos para registrar transacciones comerciales y eventos que para ciertas clases de la sociedad de aquella época eran importantes. La información de esta forma, era almacenada permanentemente evitando así recurrir a la memoria humana. Todo ésto originó la historia escrita, permitiendo que el conocimiento se pudiera transmitir a lo largo de las generaciones que fueron sucediéndose.
La escritura siguió evolucionando y desarrollándose de diferentes maneras y estilos según las culturas de las civilizaciones. Evidencias de esta evolución las tenemos en las civilizaciones egipcias, mayas y europeas que plasmaron la tecnología a través de la creación de materiales y técnicas que conservan la información. Ahora bien, durante siglos el proceso de la escritura resultaba costoso, trabajoso y no era accesible a todos, sino a privilegiados.
La imprenta y el conocimiento democratizado
El siguiente hito en lo que refiere a la transmisión de información llegó con la invención de la imprenta por Gutenberg en el siglo XV. Tengamos en cuenta que antes de este hecho, los libros y toda documentación era manual, se copiaba a mano, de ahí lo trabajoso y costoso del asunto. La imprenta representa un evento disruptivo ya que revolucionó este proceso, facilitando la producción masiva de libros y documentos, como así también la difusión del conocimiento a más personas. Ahora bien, no todos accedían al conocimiento de aprender a usar la imprenta como así también a aprender a leer y escribir. Seguía siendo algo restringido.
Con la aparición de la nueva tecnología que representó la imprenta, las personas lograron transmitir sus ideas y conocimientos a otra velocidad, a un menor costo y esfuerzo, llegando a más personas y a otros lugares que hasta ese momento no contaban con información.
Todos estos hechos permitieron que esta tecnología fuera un factor clave para que diversas sociedades se pudieran expandir. La imprenta originó la educación masiva y facilitó el debate de ideas, como así también compartir conocimiento de manera más efectiva.
La revolución digital y la transformación de la información en datos
Nuevas tecnologías fueron sucediéndose, hasta aparecer un nuevo hito histórico como fueron las computadoras e internet en el siglo XX que marcaron el inicio de la revolución digital.
Las computadoras permitieron automatizar procesos, propusieron otra manera de procesamiento de la información, provocaron que el almacenamiento de datos pasara de ser algo físico a ser digital, lo que significó un evento disruptivo ya que se podía almacenar gran cantidad de información en espacios virtuales.
Todo esto fué sucediendo a lo largo del tiempo con diferentes hechos, en diferentes regiones del planeta.
Comparto algunos hechos históricos que me hicieron reflexionar mucho en su momento mientras estudiaba el posgrado de la UBA IALAB, más que nada por los intervalos de tiempos:
La aparición de la ENIAC (Calculador e integrador numérico electrónico) en febrero de 1943, anunciado por el ejército de Estados Unidos, y que gran parte de la humanidad considera el inicio de la era de la informática. Después apareció la UNIVAC en 1946 para usos comerciales y de gobierno, la SEAC en 1950 almacenando programas con instrucciones y datos en la RAM, la IBM en 1952, Microsoft en 1975 con los primeros desarrollos en versiones de lenguaje de programación, la Apple en 1976 integrando monitor y teclado. En la década de los ‘90, aparecieron las computadoras con más RAM, puertos USB, cámaras digitales, y otros periféricos.
Por otra parte y en relación con nuestra actividad, en 1947 Grace Hopper dió origen al término bug y que no tiene nada que ver con el software. Este hecho tuvo lugar en la Universidad de Harvard y específicamente con la Mark II, computadora que ocupaba un gran espacio físico, y que estaba presentando ciertos errores que los científicos estaban investigando sus causas. En dicho equipo estaba Grace Hopper quien logró detectar la causa del error: una polilla, es decir un insecto, o sea un bug.
Años más tarde, no muchos, se considera que en 1983 tuvo su origen Internet a raíz de que el Departamento de Defensa estadounidense decidió incorporar el protocolo TCP/IP en su red, Arpanet Internet, y con el tiempo se dió sólo a llamarse Internet, como lo conocemos hoy. Años más tarde, en 1989, Tim Berners Lee incorporó tres nuevos recursos: HTML, HTTP y el programa Web Browser.
Internet dió la posibilidad de compartir información en tiempo real a escala global. El correo electrónico, los sitios web y las redes sociales se convirtieron en las nuevas herramientas de comunicación, reemplazando métodos tradicionales como las cartas y los periódicos, pasando a lo digital. La famosa transformación digital.
Esta evolución digital además de plantear desafíos también planteó riesgos y amenazas, como la sobrecarga de información y las cuestiones de privacidad y seguridad. Sin embargo, democratizar el conocimiento a mi entender es lo mejor que nos ha pasado, con sus pro y sus contras, ya que permite que cualquier persona conectada a Internet pueda acceder al conocimiento en cualquier momento que lo desee. Miremos un poco atrás y nos daremos cuenta de los grandes cambios que se dieron y en poco tiempo considerando los grandes avances.
La Inteligencia Artificial: La nueva frontera a explorar
La inteligencia artificial consideramos que surge a partir de un trabajo realizado en 1950 por Alan Turing, matemático británico, que propone una nueva disciplina de las ciencias de la información.
Actualmente estamos viviendo lo que muchos consideran una nueva revolución en la gestión de la información: la era de la inteligencia artificial (IA). La IA no solo almacena y transmite información, sino que también puede analizarla, interpretarla y, en algunos casos, tomar decisiones basadas en ella. Diferentes modelos se están creando en los que se aplican matemáticas, programación y análisis, entre otras disciplinas por medio de computadoras que requieren cada día más, mayor potencia en su hardware.
La IA está siendo utilizada en una amplia variedad de aplicaciones, desde motores de búsqueda como Google hasta asistentes virtuales como Siri o Alexa. Estas tecnologías están diseñadas para manejar cantidades masivas de datos y proporcionar respuestas o soluciones de manera rápida y precisa. La IA también está transformando industrias como la medicina, donde se utiliza para analizar imágenes médicas y predecir enfermedades, o el comercio, donde se emplea para personalizar la experiencia de compra de los usuarios. Muchas de estas actividades se llevan a cabo desde hace varios años, y no teníamos suficiente información al respecto.
Lo más notable de la IA es su capacidad para aprender y mejorar con el tiempo, a través de modelos como el del aprendizaje automático (machine learning), donde las IA’s pueden analizar patrones en los datos y ajustar sus algoritmos para mejorar su rendimiento. Esto significa que, a medida que se utilizan más datos, se vuelven más precisas y eficientes. No nos olvidemos que los datos pueden no estar etiquetados o estarlo, pudiendo aplicarse aprendizaje supervisado o aprendizaje no supervisado.
Sin embargo, al igual que con cualquier tecnología disruptiva, la IA también plantea preguntas importantes. ¿Hasta qué punto debemos confiar en las decisiones tomadas por una máquina? ¿Cómo aseguramos que los algoritmos de IA no refuercen sesgos o discriminación? ¿Que es eso de los datos sintéticos generados por las propias inteligencias artificiales? Y, quizás lo más importante, ¿cómo protegemos la privacidad de los datos en un mundo donde la información es cada vez más valiosa?
Conclusión
La información y el tratamiento de la misma sigue evolucionando, y la Inteligencia Artificial nos propone entrar a una nueva fase que promete cambiar radicalmente la forma en que interactuamos con el conocimiento. Desde una escritura en tablas de arcilla, a hoy con algoritmos que convivimos a diario y que son capaces de aprender y adaptarse rápidamente a los cambios que proponemos y que la tecnología actual también propone e impulsa.
Comentario final
Puedes seguirme por LinkedIn donde también publico.