Radio otra vez
Después de muchos años, empecé una nueva columna sobre tecnología en la radio. Esta vez en Radio En Trásito, en el programa Todo otra vez. Es un poco más complicado porque al estar por conferencia, no puedo ver a Raquel y Agustín cuando hablamos. El programa se puede escuchar en el 93.9 de FM, desde su página web y también suben las columnas en modo Podcast a distintas plataformas.
La primera fue el 31 de marzo y hablamos sobre las inteligencias artificiales, principalmente las de modelos de lenguaje como GPT. Más abajo se puede encontrar el audio y la transcripción del mismo. También voy a ir dejando recursos que utilicé en la investigación para la columna, y los temas que quería tratar (como se puede ver, en la primera no llegué a plantear todos los problemas que quería).
Perdí algo del ejercicio que había ganado la anterior vez, pero espero ir mejorando.
Temas que queria tratar
- Sesgos en los algoritmos
- Al no saber como los entrenaron, no podemos conocer qué sesgos puede tener o por qué responde lo que responde. Inventa citas, comentarios, etc.
- Explotación laboral en países de bajos recursos, y esos trabajadores están expuestos a contenido sensible
- La simulación “humana” nos hace pensar que tienen sentimientos o intenciones que no tiene. No venderlo como que responde preguntas con la verdad, devuelve oraciones posibles a partir de lo anterior que fue escribiendo
- Se genera la sensación de “verdad”, de a poco se le va creyendo a sus decisiones. Y esto es problemático en las IA que definen políticas públicas, etc.
- Costo energético, ¿tiene sentido el gasto energético para la función que cumplen?
- Un modelo estadístico que no está representado por la integración de la humanidad. Cuando hacemos encuestas, debemos tomar una muestra representativa, esto no se hace con los textos que se incluyen en el entrenamiento de las IA
Recursos
- Stochastic Parrots (en inglés) es un paper que se volvió muy famoso, prinicipalmente porque algunas de las autoras no firmaron al no haber sido autorizadas por las empresas en las que trabajaban, y otras fueron echadas, como Timmit Gebru, que trabajaba en el departamento de ética de Inteligencia Artificial de Google.
- Una lectura del paper anterior en castellano
- La explotación de trabajadores de la IA
- Cory Doctorow sobre el hype de la IA
- Declaración de Montevideo sobre Inteligencia Artificial
Para escuchar la columna
Transcripción del audio
Raquel: Continuamos en “Todo otra vez” y hay temáticas que venimos tratando en este programa que nos interesan y que además están en boga de las discusiones que suceden a nivel, medios, todos estos últimos días, pero bueno nos gusta tratarlas con profundidad y con una visión diferente. Decíamos que íbamos a tener a alguien participando desde La Paz, Bolivia y justamente es el momento de darle la bienvenida a Guillermo Movia que es licenciado en comunicación social interesado en tecnologías abiertas y cómo estas tecnologías afectan a la sociedad. Guillermo te damos la bienvenida a “Todo otra vez” aquí Raquel y Agustín te saludamos.
Yo: Hola, ¿qué tal? ¿cómo andan?
Raquel: Bien, con muchas ganas de conversar y pensar en las tecnologías y en cómo impactan nuestras vidas.
Yo: Genial, bueno hoy pensé en hablar que, supongo que es lo que estabas comentando, justamente de una de estas tecnologías que cada día en estas últimas semanas, cada día hay una noticia nueva, que son las inteligencias artificiales y especialmente chatGPT que es una específica sobre lenguaje que simula a una persona que te está hablando y que te contesta cada una de los pedidos que le haces y de una forma que parece, como decía, bastante humana. No sé si estuvieron leyendo últimamente sobre esto, yo estuve haciendo una recopilación de las últimas noticias que fueron apareciendo, como decía, en esta semana y son muchísimas, desde que Microsoft y Google están empezando a incorporarlo en sus sistemas de búsqueda como para que en lugar de buscar como estamos acostumbrados ahora en internet, podamos hacerlo más conversado con alguien que nos va seleccionando, alguien no, está mal dicho alguien, una empresa, una computadora que nos va seleccionando las respuestas para lo que supone que es lo que más nos va a interesar, y después hubo ahí una carta que salió ayer, no sé si la leyeron o escucharon digamos de intelectuales o en verdad eran mucho más empresarios y gente que está poniendo plata que intelectuales o científicos, pero pidiendo que haya una pausa en todo este desarrollo de inteligencias artificiales. Mucho antes, hace un par de meses se había hecho una carta, bueno en verdad está como declaración de Montevideo sobre inteligencia artificial y el pacto en América Latina, que sí hicieron ahí intelectuales y científicos de nuestra parte del mundo en la que juntamente comentaban los peligros o por lo menos los llamados de atención que deberíamos tener en el desarrollo de inteligencias artificiales y su uso. Y hoy hubo otra noticia que Italia pidió, digamos la imposibilidad de acceder desde Italia a chatGPT por no adecuarse a la regulación de datos de la Unión Europea. O sea, no es que les molesta esa tecnología en especial sino que dicen que en este momento, como no se está adecuando a la regulación de datos y está usando un montón de datos, porque cuando uno escribe o busca cosas va agregando, va poniendo datos suyos, datos personales, y entonces una de las cosas que dice Italia es como no se está adecuando a la regulación europea y ni siquiera pregunta si sos menor de edad o mayor de edad, entonces debería tener una serie de pasos que no está haciendo, piden que se cierre desde Italia el acceso. Aunque eso digamos que es bastante difícil que lo logren pero por lo menos es una noticia que apareció. Y, dentro de todo esto, a mi me interesaba justamente ver más, no tanto la espuma de todo lo que se está hablando de lo bueno y lo impresionante y lo mágico que parece ser esta tecnología, sino pensar más en los problemas justamente, las críticas que se le están haciendo, no a chatGPT específicamente, sino a toda esta rama de inteligencias artificiales
Raquel: Totalmente Guillermo hablamos en otra columna que tiene que ver con el gaming y la tecnología pero desde ese punto de vista sobre inteligencias artificiales, con respecto un poco de qué eran, cómo funcionaban y nos interesaba esto, conversar con vos específicamente cómo afecta a la sociedad. Y yo pensando un poco en esta conversación que íbamos a tener ayer estuve ahí tirándole algunas preguntas a chatGPT, en cuanto a su funcionamiento y sobre algo que comentaban estas cartas y estas publicaciones que es que estas inteligencias artificiales pueden tener sesgos de prejuicios y estereotipos en cuanto a la información que es ingresada al sistema digamos. Y el chatGPT decía, bueno esta inteligencia, este modelo de lenguaje recopila distintos pensamientos de la gente que le va ingresando información entonces puede expresar estos prejuicios. El mismo chat lo decía, cómo vienen por ese lado los peligros de usar estas inteligencias artificiales. ¿Quién controla esos algoritmos para que las inteligencias artificiales luego repliquen estos estereotipos y pensamientos cerrados?
Yo: Bueno ahí digamos para la respuesta rápida y después voy a extenderlo un poco más, la respuesta rápida es hay un poco de control pero no mucho y va a cómo funciona digamos todos estos que son modelos de lenguajes generativos como GPT. Digamos ahí había una diferencia, GPT es como la base, el fundamento y chatGPT es una implementación justamente para generar esto que parece un diálogo que vos vas teniendo con una entidad, lo que hacen estos modelos de lenguaje es llenarse con un montón de información pero son millones y millones de recursos de texto que principalmente se sacan de internet y ese es uno de los principales problemas. O sea, se sacan de internet quiere decir que agarran todo Wikipedia, agarran todo Reddit que es un sitio donde se intercambia un montón de información, agarran toda esta información de muchos lugares de internet y uno de los problemas es que por ejemplo OpenAI que es la creadora de GPT, pero en general todos estos laboratorios que hacen eso, no hay que quedarse solo con OpenAI, lo hacen la mayoría, no dicen cómo generan, con qué textos entrenan a su sistema. Y es importante eso porque justamente lo que hacen estos sistemas no es más que, bueno, muy simplificadamente y obviamente es más complejo, pero en principio lo que hacen estos sistemas es intentar crear frases uniendo palabras, intentando hacer la siguiente, la que sería más probable que sea a partir de la palabra anterior, entonces si yo empiezo con “la”, va a buscar dentro de todo su sistema, de todos sus millones y millones de entradas, ¿Cuál es la palabra que probablemente vaya después de la? Y así van armando la oración, como ese juego donde uno iba armando la oración y empezaba con una palabra y el que continuaba tenía que usar la palabra que es siguiente y etc. En general, estos sistemas hacen eso, lo que pasa es que lo hacen, obviamente, teniendo una gran memoria. +++ de que los primeros sistemas o los que tenemos en el teléfono que sugieren palabras por ejemplo, recuerdan poco, y estos sistemas recuerdan muchísimo, pueden recordar todo el párrafo que escribió, entonces no es que dice exactamente cuál es probabilísticamente la posible palabra después de “la”, sino después de haber escrito todo este párrafo cuál podría ser. Entonces, es mucho mejor que ir llenando una palabra cada vez, porque va generando realmente frases que tienen sentido, no es que van delirando. Una vez que se hizo eso se reforzó con interacción humana, o sea se puso a humanos a interactuar con esto y se le va diciendo acá lo hiciste bien, acá lo hiciste mal y va mejorando. Y uno de los principales problemas, y acá iba todo lo que me preguntaste de quién controla esto, hace un mes más o menos hubo un artículo en un medio importante de Estados Unidos, donde después de toda una investigación se había llegado a que justamente los que hacían este control, los humanos que hacían este control y que leían lo que les respondía la inteligencia artificial o que limpiaban un poco con qué se entrenaba la inteligencia artificial, eran personas de Kenia, trabajadores de Kenia a los que se les pagaba muy poco, o sea a dos dólares creo que era lo que se les pagaba y esas personas están expuestas a todo lo feo que se puede encontrar en internet y a todo lo feo que puede llegar a producir la inteligencia artificial. O sea, el filtro para que no aparezcan un montón de cosas en nuestras preguntas y en la interacción con el GPT lo hacen seres humanos muy mal pagados y que además sí están expuestos a toda esa porquería que se puede encontrar por ahí. Entonces, una de las grandes críticas es ¿cuál es el costo que está teniendo en la humanidad ahora? La carta esta que se hizo famosa ayer plantea de cómo va a afectar a la humanidad en cuanto se pasen años. Lo que dicen algunos es que está afectando ya a gente directamente desde esto que por muy poca plata y no solo en este caso en general este trabajo, el trabajo de la limpieza de las bases de datos lo hacen empleados muy mal pagados en lugares del mundo donde pueden pagarles muy poco para que hagan este trabajo insalubre.
Agustín: Guillermo, imagino que a lo largo del año iremos volviendo a este tema de la inteligencia artificial, calculo yo que en unos meses quizás ya no hablaremos tanto de chatGPT y estaremos hablando de alguna otra inteligencia artificial
Yo: A esto me refiero y esto me interesa sobre todo respecto a la velocidad con la que nos van apareciendo algunas de estas tecnologías, y sin caer en estos extremos de esto nos va a arruinar, va a terminar con la raza humana, nos van a ganar los robots y a decir esto no sirve para nada y del otro lado esta es la respuesta a todos nuestros problemas. Me gustaría conocer un poquito cuál es tu opinión sobre cuáles son las aplicaciones positivas que le podríamos encontrar a este tipo de tecnologías.
Yo: Hay un montón de inteligencias artificiales que ya están dando buenas cosas o que pueden cumplir funciones que para el ser humano sería mucho más difícil. Todas tienen sesgos como decía Raquel antes, todas tienen sesgos, porque el sesgo está en la información que vos le diste para que aprendiera. Te voy a dar una de las positivas que se están haciendo, se están usando mucho para reconocimiento de imágenes y para intentar detectar algunas enfermedades de una forma que el ojo humano no podría hacerlo. Cuando vos ves, nosotros no vemos, pero en general cuando los médicos ven un montón de imágenes de radiografías o otro tipo de estudios, se empiezan a ver algunas manchitas y para el ojo humano quizás es muy difícil poder encontrar patrones ahí. En cambio la inteligencia artificial puede encontrar patrones un poco más fácilmente que nosotros, sobre todo porque lo puede hacer viendo millones de imágenes, en cambio nosotros no podríamos ver todo eso. Y entonces puede quizás no detectar exactamente cuando esto es cáncer o deja de ser cáncer, pero sí decirle mira estas 10 en lugar de mira estas 200. Entonces en ese tipo de cosas hay movimientos muy positivos, ya el GPT de hecho si uno se pone a jugar, si lo ve como un juego o como algo donde puede hacer determinadas cosas sin creerle todo lo que hace, también tiene puntos interesantes, digamos desde usos que algunos dicen de romper el miedo a la página en blanco, para empezar a escribir y después hacer otra cosa, no está mal eso, o bueno yo no soy quien para decir que está mal, pero eso no me parece mal. Pero el tema es que, por ejemplo, con la de imágenes, en un libro justamente habían hecho un estudio, que se habían dado cuenta que estas inteligencias artificiales vos le das millones de imágenes y ellas lo que intentan es encontrar patrones dentro de esos millones de imágenes y a partir de ahí detectar algo, y lo que había pasado con una era que le habían dado un montón de imágenes en las cuales cuando se encontraba el positivo, digamos porque vos le tenés que decir cuando sí es cáncer, por lo menos al principio. Se habían dado cuenta después de un tiempo que en los que eran positivos siempre había habido una regla al lado de la radiografía para mostrar el tamaño de la mancha, y entonces la inteligencia artificial había terminado entendiendo que donde había una regla había un positivo, porque no tiene interpretación, lo único que hace es encontrar patrones dentro de lo que vos le das, una repetición de algo y ahí crea una regla.
Raquel: Te consulto con respecto a las imágenes porque otra de las cuestiones que estuvo hablándose en los últimos días a nivel masivo sobre inteligencias artificiales tiene que ver con imágenes generadas por inteligencias artificiales, como por ejemplo la de el Papa con una campera deportiva y demás que genera el revuelo, que empieza también a haber un problema ahí de distinguir cuáles son las imágenes falsas o generadas por una inteligencia artificial y cuáles son imágenes verdaderas. ¿Qué tipo de límites podemos encontrar a eso? ¿Hay alguna forma de comprobar si una imagen es generada o no por una inteligencia artificial?
Yo: Creo que si en algún momento son lo suficientemente buenas no lo vas a poder encontrar porque las imágenes en general cuando son digitales ya son ceros y unos entonces es más difícil ver de más este tipo de cosas pero bueno, claro, uno de los miedos que está generando es que tan fácilmente vamos a estar expuestos a información falsa a partir de la posibilidad de crear imágenes o videos, digamos, porque hay también videos y de hecho hay de voces como dijeron yo vivo en La Paz en Bolivia y la otra vez había ido a una feria por acá cerca y en muchos negocios vos escuchabas la voz de Mariano Claus diciendo: 5 camperas por 10 bolivianos ese uso de voces que ahora se pueden imitar relativamente fácil ya se puede hacer y permitiría engaños más fácilmente. En las imágenes tenemos todavía errores cuando lo ves o sea cuando las ves las que genera termina generando errores y todavía se puede llegar a ver, lo que decían igual a partir también de esta carta, porque en la carta de estos no filántropos, porque justamente no son filántropos lo hacen todo por negocio pero de estos empresarios una de las cosas que decían es que nos vamos a obligar a tener la va a empezar a haber muchísima falsa información con todo esto porque habilita muy fácilmente hacer la falsa información y una carta en contra de eso decía, en este momento ya la tecnología para hacer todo eso está al alcance en general, lo que está fallando o lo que empieza a ser más difícil es la distribución de esa falsa información y cómo la distribuís. Pero lamentablemente toda la tecnología para hacer informaciones falsas bastante creíble ya las tenemos y principalmente, y esto ya más como comunicador, porque lamentablemente estas informaciones llegan a personas que generalmente no quieren o sea lo van a creer pase lo que pase casi o sea ya pasamos a otra discusión que no es tanto la culpa de si el producto de la fake news es suficientemente bueno o no, sino que estamos en un momento en que creemos lo que va a dar por verdadero lo que nosotros ya creemos mucho más fácil que cualquier otra cosa.
Raquel: Totalmente, totalmente, Guillermo te agradecemos muchísimo y ya estamos esperando la próxima columna para seguir hablando de estas cuestiones de tecnología y cómo impactan a la sociedad y esto a la construcción, digamos, de sentido público y en los medios cómo repercute a nuestras tareas. Te agradecemos muchísimo y esperamos prontito hablar de nuevo con vos. Pasaba Guillermo Movia licenciado en comunicación social interesan tecnologías abiertas y cómo las tecnologías afectan la sociedad y yo ya estoy dudando si nosotros seremos nosotros o seremos inteligencias artificiales