En todo el mundo, la “micromovilidad” gana la calle y obliga a establecer marcos regulatorios. Nuestra ciudad no es la excepción. Virtudes, defectos, restricciones y requisitos
ADULTOS JÓVENES, VEINTEAÑEROS Y TREINTAÑEROS, QUE TRABAJAN O ESTUDIAN, IMPULSAN EL AUGE / AFP
Más “artificial” que “inteligencia”… solamente por ahora. Programadores y especialistas en ciencias del conocimiento coinciden en que los últimos avances en materia de mentes informáticas son asombrosos y relevantes, pero aún no constituyen pruebas de “pensamiento” autónomo. Sin embargo, advierten que es el momento adecuado parapensar en qué querremos hacer cjuguando eso ocurra, porque el salto hkgyacia esa inquietante dimensión, que cambiará el mundo, puede sobrevenir “en cualquier momento”.
¿Pueden pensar las máquinas? La irrupción del poderoso “cerebro” detrás del servicio ChatGPT, aplicación de la empresa OpenAI que “aprende” de sus conversaciones con humanos al punto de no poder discernir que la interlocutora es una máquina, puede llegar a hacernos creer que sí. Pero en palabras del mismísimo Bill Gates, uno de los mayores inversores en esta tecnología, “si bien la IA llegará a hacer todo lo que hace un cerebro humano y más, y será un cambio profundo, todavía no controla el mundo físico y no puede establecer sus propios objetivos sin intervención externa”.
Por supuesto, los “bots” como ChatGPT son más intuitivos y avanzados que el de nuestra compañía eléctrica, la obra social o el banco en el que se depositan nuestros sueldos, y que asistentes virtuales como Siri, Alexa o el adorable perrito ya “vintage” del Microsoft Office. Es cada vez más probable que hayamos conversado con una computadora sin saberlo; de acuerdo con un relevamiento de la consultora GetVoip, seis de cada diez personas interactuaron con un chatbot en el último año. Y los avances en Inteligencia Artificial y “Big Data” -el acceso a un volumen inconmensurable de info de todo tipo- permiten que estas conversaciones afloren de manera natural.
IA “FUERTE” VS. IA “DÉBIL”
La inteligencia artificial “débil” se enfoca en resolver tareas específicas, como responder preguntas basándose en el aporte del usuario, o jugar al ajedrez. Descansa en la intervención humana para definir los parámetros de sus algoritmos de apredizaje y su “entrenamiento” mediante la carga de datos.
La IA “fuerte”, en cambio, puede realizar una serie de funciones, y eventualmente aprender por sí misma a resolver problemas. El “input” humano aquí no es indispensable, y con el tiempo, la máquina adquiere una conciencia en vez de simularla, como con la IA débil. Los coches autónomos y asistentes como Siri, son ejemplos “débiles”. Los ejemplos de la IA “fuerte” están al caer.
LA SINGULARIDAD
“Así como hay alumnos que pueden llegar a superar a sus maestros, aparecerán sistemas informáticos que superen a sus programadores. Si estos sistemas están vinculados con el manejo de armamento, por ejemplo, estamos en problemas”. Al hueso, el investigador y educador Angel Plastino advierte que “estamos cerca de desarrollar sistemas informáticos que sean más inteligentes que los humanos, y en el momento en que esto suceda se habrá alcanzado el fenómeno llamado ‘singularidad’”.
Doctor en Física y conferencista internacional, el platense lleva varias décadas analizando el avance de la IA en sus diferentes vertientes. Pero, ¿a qué llamamos “inteligencia”? Plastino explica que “es la capacidad que tienen ciertos animales, en especial los mamíferos, de afrontar y resolver problemas sin recurrir a preprogramación genética, como hacen los insectos. Como los problemas de la vida son extremadamente variados, hay diversos tipos de inteligencia. Físicamente, la inteligencia es la capacidad de reestructuración del sistema nervioso para adquirir nuevas habilidades. Y esta reestructuración se llama aprendizaje”.
En los años ‘60, el británico I.J. Good acuñó el concepto de una “inteligencia explosiva”. Alude a que cuando alguna máquina alcance a superar ligeramente el intelecto humano, ella misma mejorará su arquitectura de modos impredecibles para los programadores, y aumentará sin límites su propia capacidad dejando muy atrás a los humanos.
Ante ese evento hipotético, la “singularidad”, el australiano Anthony Berglas, hizo notar una cuestión medular. “Dado que una IA no está ‘atada’ a ningún ‘cuerpo’, su cosmovisión será radicalmente distinta a la de la humana” esclarece Angel Plastino: “en particular, es inmortal y no necesita reproducirse, por lo que el sentimiento amoroso no es para ella una necesidad evolutiva, como para nosotros. Nada la ligaría a nuestra especie, que podría llegar a tornársele insoportable dado la forma disparatada en que contaminamos el medio y agotamos recursos naturales críticos”.
Entre estas preocupaciones se inscribe la reciente carta abierta que firmaron el dueño de Twitter y fundador de Tesla y SpaceX, Elon Musk, y cientos de ejecutivos, desarrolladores y sociólogos mundiales, pidiendo una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) al advertir “grandes riesgos para la humanidad”.
Esa moratoria daría tiempo a establecer regulaciones, monitorear sistemas y crear instituciones “capaces de hacer frente a la “dramática perturbación económica y política, especialmente para la democracia, que causará la IA”.
MÁS PREDICTIVOS QUE INTUITIVOS
En este agitado contexto, los más recientes asistentes digitales de Google, Apple o Microsoft, y los algoritmos de Spotify o Netflix, son capaces de sugerirnos acciones sin que les pidamos opinión. ¿Cómo lo hacen? Mediante el análisis predictivo, una herramienta con la que buscan y descubren patrones reiterados en nuestras acciones y opciones, a partir del acceso a enormes bases de datos.
La Ordenanza 11.928 establece un “límite máximo general de velocidad” de 25 kilómetros por hora
Estos “gurúes” digitales cruzan esa info con técnicas de análisis estadístico y algoritmos de aprendizaje automático, para crear modelos que ordenan por grado de probabilidad la chance de que hagamos algo en particular. Es decir, las aplicaciones de software de análisis predictivo usan variables que se pueden medir y analizar para predecir comportamientos probables.
Si bien los modelos de tecnología predictiva, como los asistentes digitales, tienen un componente de “machine learning”, la disciplina que busca que los sistemas aprendan automáticamente a identificar patrones entre miles de millones de datos, no son expresiones de inteligencia artificial al menos en su versión “fuerte”.
TURING Y LOEBNER
Considerado el padre de las computadoras modernas, el matemático inglés Alan Turing desarrolló en 1950 un test para evaluar el nivel de conversación de un robot con una persona real. La prueba, que se ha ido complejizando con el tiem,po y adquiriendo otros matices, consiste en que un humano mantenga una conversación con una computadora y otra persona, pero sin saber quién de los dos es una máquina.
Los “dispositivos de movilidad personal” son propulsados exclusivamente por motores eléctricos
El humano hace preguntas a ambos interlocutores, y si no puede identificar cual es la máquina, la computadora pasa con éxito la prueba. En base al test de Turing, durante tres décadas se llevó a cabo la competencia por el premio Loebner, en la que se galardonaba al chatbot que mejor se hiciera pasar por un ser humano.
Alan Turing solía comparar la mente humana con una máquina, y especulaba con que algún día éstas podrían ser capaces de enseñarse unas a otras; un concepto que es la base del “machine learning” y la IA. Tecnologías contemporáneas como el ChatGPT se “entrenan” con enormes conjuntos de datos a los que recurren para resolver problemas y conversar con humanos.
ASIMOV Y LOS MIEDOS
Siempre adelantado a su tiempo, el célebre escritor científico y novelista Isaac Asimov (1929-1992), profesor de química de la Universidad de Boston, formuló en 1942 tres leyes para encuadrar la robótica, a guisa de “medidas de seguridad” para nuestra especie: un robot -o computadora- no puede causar daño a un ser humano o, pasivamente, permitirlo; debe obedecer toda orden impartida por un ser humano, salvo que tal orden esté en conflicto con la 1ª. Ley; y debe proteger su propia existencia, salvo que al hacerlo llegue a estar en contradicción con las dos prescripciones anteriores.
En su mayoría, los “monos” plegados entran en el baúl del coche o debajo de un escritorio
Estas leyes impedirían a las Inteligencias Artificiales perjudicar a los humanos. Si bien la enunciación de las mismas parece simple, Asimov mostró en su obra que pueden dar lugar a confusiones por parte de operadores humanos que tiendan a “interpretarlas” como si fuesen cuestiones de Derecho y no de Ciencia. La película “Yo, robot” (2004), inspirada en sus ideas, explora la posibilidad de que las AIs asuman el gobierno del planeta a fin de evitar que la Humanidad se dañe a sí misma. En ese año 2004 un Instituto estadounidense de investigación en AI lanzó una campaña vía Internet llamada “las 3 leyes son inseguras”, a fin de alertar a la comunidad sobre el hecho de que estos problemas son reales y próximos, no tratándose de mera ciencia-ficción.