Inteligencia Artificial: Proponen incorporar la discusión sobre las tecnologías a la discusión política
Table of Contents
Por más de 100 años, la cultura popular, la literatura, el cine o la humanidad han imaginado un futuro en que las personas conviven con máquinas inteligentes. Por ejemplo, en las películas Metrópolis, Blade Runner o Terminator, por citar algunos ejemplos del cine.
¿Estamos ya conviviendo con máquinas inteligentes? Quien respondió esAgustín Berti, profesor e investigador de la Uiversidad Nacional de Córdoba, en Argentina y del CONICET; director alterno de la Maestría en Tecnología, Políticas y Culturas; e integrante de Dédalus, grupo de investigación sobre la técnica. “Es algo que siempre ha estado dando vueltas porque, en el fondo, la humanidad siempre ha coevolucionado con un entorno técnico. Nuestros propios procesos de cambio social, incluso también nuestros procesos de cambio biológico están asociados a nuestras herramientas. Primero, con artefactos muy simples y luego con sistemas tecnológicos más complejos como la agricultura, los canales de riego o la arquitectura. Pasa que ahora tenemos sistemas que tienen mucha mayor complejidad y que operan de manera automática de un modo que nos resulta inaccesible. Y por eso los vemos como externos a nosotros, ajenos, diferentes de lo humano, aunque en realidad son producidos por humanos y son, de hecho, humanidad fuera de nosotros mismos. ‘Inteligencia artificial’ (IA) es un sintagma que se puede prestar a malentendidos. Es inteligencia humana puesta a funcionar en máquinas automáticas que realizan una serie de operaciones a velocidades que nuestras capacidades biológicas no permiten.
-
¿Cómo se genera esta inteligencia artificial?
-
La inteligencia artificial a la que nos referimos hoy son máquinas que pueden aprender. El machine learning, el aprendizaje maquínico, es un tipo de software que a partir de una serie de datos aprende a reconocer patrones, que es algo que nosotros hacemos todo el tiempo. Esta idea viene ya de los años ‘50, con la idea de la «máquina niño» de Alan Turing. En vez de programar una máquina para que haga todo lo que hace un humano, es mucho más eficiente lograr que una máquina aprenda. Hay ahí una idea de imitación. Entonces, lo que hacen las máquinas es aprender a reconocer patrones y luego identificar esos patrones en el mundo, y eventualmente generar patrones nuevos a partir de los aprendidos. ¿Cómo reconocen esos patrones? Mediante el análisis de vastísimas bases de datos, que son ese flujo de datos que nosotros generamos constantemente.
-
Si nosotros les enseñamos a las máquinas lo que aprenden, ¿puede haber sesgos en ese proceso?
-
Claro, porque venimos con sesgos históricos, y toda cultura ya es un sesgo. La cultura es una reducción de información para poder navegar en el mundo. No podemos estar todo el tiempo abrumados por todos los estímulos que recibimos descubriendo todo de nuevo. En algún momento reducimos la variedad de las cosas; por ejemplo, no tenemos un nombre para cada perro, «perro” abarca a todos los perros del mundo. Del mismo modo, a los fenómenos sociales también los reducimos, entonces asignamos identidades genéricas, asignamos edades, y decimos que alguien es infante, joven, adulto o viejo, por ejemplo, y eso abarca quizá complejidades evolutivas muy diferentes. Ese tipo de sesgo se traslada a los datos que vamos dejando en el mundo, datos sobre los cuales las máquinas se entrenan. Entonces, no es que la máquina, el algoritmo, sea racista o clasista, la sociedad es racista y es clasista, y la máquina lo que hace es replicar esos datos que ya están inscritos en la serie histórica.
-
¿Puede que haya inteligencias artificiales que opinen diferente sobre un mismo hecho?
-
La inteligencia artificial, al menos la que estamos pensando ahora como inteligencia artificial que es el Chat GPT y todas las variantes de la inteligencia artificial generativa, se han entrenado con todos los textos disponibles en el mundo. Y luego se lo ha ido corrigiendo para eliminar ciertos sesgos, o para directamente eliminar ciertas palabras. Pero la inteligencia artificial sólo replica y recombina patrones que ha reconocido en los textos que hay sobre el mundo, no es que tiene una opinión sobre un hecho histórico. Recupera todas las opiniones existentes y las combina en base a la pregunta que yo le hago, al sesgo que yo le imprimo al patrón que quiero que genere. Le puedo decir “generáme una versión idílica de la conquista de América», y lo va a poder hacer. O del mismo modo podría decirle “describíme la conquista de América como un apocalipsis», y lo va a hacer, porque va a recuperar la noción de apocalipsis y los datos que tiene sobre la conquista de América y va a producir un texto con el sesgo que le requerí. Además, lo va a hacer en un tiempo que para los humanos no es posible, a velocidades que no podemos alcanzar, pero no es nada más que la aceleración de la humanidad mediante estos dispositivos extracorporales.
Ver Inteligencia artificial encuentra pistas sobre el cáncer a toda velocidad
-
¿Qué ve de negativo y de positivo en esto?
-
No pensaría en términos de positivo o de negativo porque ni tecnofobia ni tecnofilia son posiciones que me parezcan interesantes. Hay que discutir las tecnologías, comprenderlas, incorporarlas a nuestra discusión sobre la política. Hay que tener una política tecnológica que nos permita decidir sobre las direcciones que va tomando la tecnología, decidir informadamente. Es decir, saber qué efectos producen, saber qué potencialidades y qué riesgos entrañan. Hay que saber cómo funcionan, no ser meros usuarios, y a partir de eso discutir cuáles tecnologías queremos.
-
¿Quién debiera controlar la inteligencia artificial?
-
El control debe ser democrático, debiera haber igualdad en el desarrollo porque es una tecnología que afecta globalmente por su escala y su velocidad. Todo el mundo debería tener un acceso similar a la posibilidad de entrenar inteligencias artificiales con las necesidades específicas de cada sector. Además, gran parte de esos datos se guardan en servidores que están en territorio extranjero, bajo legislación extranjera. Eso ya imprime un sesgo y una pérdida de soberanía, una pérdida de soberanía de datos y pérdida de soberanía tecnológica porque es justamente a través del entrenamiento del sistema de inteligencia artificial a partir de esos datos, que se obtienen ventajas comerciales. Pero también militares y estratégicas. Entonces habría que tener una política de datos a escala regional para poder competir a la hora de definir cómo se tienen que gestionar cada región.
-
¿Esa es la gran dificultad que tiene hoy la inteligencia artificial?
-
Sí, que está concentrada en pocas manos y que está híper sesgada hacia una funcionalidad determinada, que en este caso es la ganancia, y gestionada además por una población que es muy minoritaria en el planeta: hombres blancos heterosexuales del norte global. Ellos son los que desarrollan y orientan la tecnología y son un sector que poblacionalmente es una mínima expresión de la diversidad cultural, étnica, social y de género del planeta. Está sobrerrepresentada esa minoría. Hay un concepto que se está discutiendo ahora que es la tecnodiversidad. Así como se pide que haya pluralidad o diversidad cultural y biodiversidad, también tendríamos que tener tecnodiversidad, una diversidad de datos (y de tecnologías). Debiera haber datos que reflejen los sesgos inherentes a cada cultura para así producir unas inteligencias artificiales que puedan dar cuenta de todas esas otras formas y todas esas visiones del mundo que hoy están subsumidas a una visión que se generó en un lugar particular. Silicon Valley es lo que encarna ese modelo. La discusión entonces debiera ser politizar la tecnología en el sentido de abrirla al debate público, someterla a la auditoria pública. Para eso hace falta más universidad, no menos, para poder generar un saber interdisciplinario que incorpore a las disciplinas que se han dedicado durante siglos al trabajo sobre las sociedades como el derecho, las ciencias sociales, como la sociología, la antropología, la geografía, las humanidades, las letras, la filosofía y la historia, que permiten entender la complejidad de estos sistemas y matizar los sesgos. Todo eso, junto con el saber que se suele denominar más “técnico”, como el de la ingeniería, la matemática, la física, la química, la biología, para generar un trabajo cruzado que permita aprovechar estas herramientas comprendiendo sus implicancias políticas que van mucho más allá de lo que pasa en el país, que son de alcance global.
El artículo IA: “Hay que incorporar la discusión sobre las tecnologías a la discusión política”, con la firma de Diego Ludueña, de la Redacción de UNCiencia ( diego.julio.luduena@unc.edu.ar@unc.edu.ar), fue publicado en la sección de noticias de la Universidad Nacional de Córdoba
English version #
IA: “We must incorporate the discussion on technologies into the political discussion” #
Artificial intelligence (AI) is changing fundamental aspects of society. Trained from millions of data, but replicating biases and prejudices, it affects the ways in which reality is developed, told, and perceived. Agustín Berti, professor and researcher at UNC and CONICET, explains the impacts of this technology.
For more than 100 years, popular culture, literature, cinema and humanity have imagined a future in which people live alongside intelligent machines. For example, in the films Metropolis, Blade Runner or Terminator, to cite some examples from the cinema.
Are we already living with intelligent machines? The answer comes from Agustín Berti, professor and researcher at UNC and CONICET; alternate director of the Master’s in Technology, Policies and Cultures; and member of Dédalus, a research group on technology: “It is something that has always been around because, deep down, humanity has always co-evolved with a technical environment. Our own processes of social change, even our processes of biological change are associated with our tools. First, with very simple artifacts and then with more complex technological systems such as agriculture, irrigation channels or architecture. It happens that now we have systems that are much more complex and that operate automatically in a way that is inaccessible to us. And that is why we see them as external to us, alien, different from the human, although in reality they are produced by humans and are, in fact, humanity outside of ourselves. ‘Artificial intelligence’ (AI) is a term that can be misunderstood. It is human intelligence put to work in automatic machines that perform a series of operations at speeds that our biological capacities do not allow."
-
How is this artificial intelligence generated?
-
The artificial intelligence we are talking about today is machines that can learn. Machine learning is a type of software that learns to recognize patterns from a series of data, which is something we do all the time. This idea dates back to the 1950s, with Alan Turing’s idea of the “child machine.” Instead of programming a machine to do everything a human does, it is much more efficient to get a machine to learn. There is an idea of imitation there. So, what machines do is learn to recognize patterns and then identify those patterns in the world, and eventually generate new patterns from those learned. How do they recognize those patterns? By analyzing vast databases, which are that flow of data that we constantly generate.
-
If we teach machines what they learn, can there be biases in that process?
-
Of course, because we come with historical biases, and every culture is already a bias. Culture is a reduction of information in order to navigate the world. We cannot be constantly overwhelmed by all the stimuli we receive, discovering everything anew. At some point we reduce the variety of things; for example, we do not have a name for every dog, “dog” covers all the dogs in the world. In the same way, we also reduce social phenomena, so we assign generic identities, we assign ages, and we say that someone is an infant, a young person, an adult or an old person, for example, and that perhaps covers very different evolutionary complexities. This type of bias is transferred to the data that we leave in the world, data on which machines are trained. So, it is not that the machine, the algorithm, is racist or classist, society is racist and classist, and what the machine does is replicate those data that are already inscribed in the historical series.
-
Could there be artificial intelligences that have different opinions on the same fact?
-
Artificial intelligence, at least the one we are thinking of now as artificial intelligence, which is GPT Chat and all the variants of generative artificial intelligence, have been trained with all the texts available in the world. And then they have been corrected to eliminate certain biases, or to directly eliminate certain words. But artificial intelligence only replicates and recombines patterns that it has recognized in the texts that exist about the world, it does not have an opinion about a historical fact. It recovers all the existing opinions and combines them based on the question that I ask it, the bias that I imprint on the pattern that I want it to generate. I can tell it “generate me an idyllic version of the conquest of America,” and it will be able to do it. Or in the same way I could tell it “describe to me the conquest of America as an apocalypse,” and it will do it, because it will recover the notion of apocalypse and the data that it has on the conquest of America and it will produce a text with the bias that I requested. Furthermore, it will be done in a time that is not possible for humans, at speeds that we cannot reach, but it is nothing more than the acceleration of humanity through these extracorporeal devices.
-
What do you see as negative and positive in this?
-
I wouldn’t think in terms of positive or negative because neither technophobia nor technophilia are positions that I find interesting. We have to discuss technologies, understand them, incorporate them into our discussion on politics. We have to have a technological policy that allows us to decide on the directions that technology is taking, to make informed decisions. That is, to know what effects they produce, to know what potentialities and what risks they entail. We have to know how they work, not be mere users, and from that we can discuss what technologies we want.
-
Who should control artificial intelligence?
-
Control must be democratic, there should be equality in development because it is a technology that affects globally due to its scale and speed. Everyone should have similar access to the possibility of training artificial intelligence with the specific needs of each sector. In addition, a large part of this data is stored on servers that are in foreign territory, under foreign legislation. This already creates a bias and a loss of sovereignty, a loss of data sovereignty and a loss of technological sovereignty because it is precisely through the training of the artificial intelligence system based on this data that commercial advantages are obtained. But also military and strategic advantages. So we should have a data policy on a regional scale to be able to compete when defining how each region has to be managed.
-
Is that the great difficulty that artificial intelligence has today?
-
Yes, it is concentrated in a few hands and is hyper-biased towards a certain function, which in this case is profit, and it is also managed by a population that is very much a minority on the planet: heterosexual white men from the global north. They are the ones who develop and guide the technology and they are a sector that, in terms of population, is a minimal expression of the cultural, ethnic, social and gender diversity of the planet. That minority is over-represented. There is a concept that is being discussed now, which is technodiversity. Just as there is a demand for plurality or cultural diversity and biodiversity, we should also have technodiversity, a diversity of data (and technologies). There should be data that reflects the biases inherent to each culture in order to produce artificial intelligences that can account for all those other forms and all those visions of the world that today are subsumed to a vision that was generated in a particular place. Silicon Valley is what embodies that model. The discussion should then be about politicizing technology in the sense of opening it up to public debate, subjecting it to public auditing. To do this, we need more universities, not less, in order to generate interdisciplinary knowledge that incorporates the disciplines that have been dedicated for centuries to working on societies, such as law, social sciences, such as sociology, anthropology, geography, humanities, literature, philosophy and history, which allow us to understand the complexity of these systems and qualify biases. All of this, together with the knowledge that is usually called more “technical,” such as engineering, mathematics, physics, chemistry, biology, to generate cross-disciplinary work that allows us to take advantage of these tools, understanding their political implications that go far beyond what happens in the country, which are global in scope.
-
The article IA: “Hay que incorporar la discusión sobre las tecnologías a la discusión política”, with Diego Ludueña sign from UNCiencia ( diego.julio.luduena@unc.edu.ar@unc.edu.ar), was published in the news section on UNC’s website