ATAJAR RIESGOS POR USO DE IA
ATAJAR RIESGOS POR USO DE IA
· Manipulación de
información o difusión de datos falsos sin verificar, entre los peligros,
resalta Jesús Savage Carmona
·
Helena Gómez Adorno coincidió que se debe regular, mas no prohibir el empleo de
esa tecnología
Ante el avance vertiginoso
de la inteligencia artificial (IA), cuya utilización se amplía en diferentes
áreas del conocimiento, es indispensable promover su regulación, toda vez que
empieza a generar más problemas que beneficios, consideró el profesor-investigador
de la Facultad de Ingeniería de la UNAM, Jesús Savage Carmona.
Durante
el Seminario TIC: “IA generativa, retos y beneficios del ChatGPT”, organizado
por la Dirección General de Cómputo y Tecnologías de Información y
Comunicación, el especialista comentó que no se debe tener miedo ni tratar de
prohibir el uso de las nuevas herramientas digitales, como el ChatGPT, pero sí
se debe buscar la forma de atajar una serie de riesgos que se han
acrecentado.
El
universitario aclaró que al ser desarrollos que se alimentan con datos
introducidos por las personas, son susceptibles de generar información falsa o
imprecisa.
Entre los riesgos del empleo de la inteligencia artificial generativa se
encuentran la manipulación de información o la difusión de datos falsos sin
verificar, puntualizó.
Lo
primero que se debe considerar, dijo, es que cualquier contenido se puede
manipular; muestra de ello es el ChatGTP, el cual aprende con ejemplos y se
alimenta con datos que con frecuencia se toman de páginas de internet públicas,
no necesariamente confiables; entonces puede manejar a la población con
información falsa.
En
el mismo sentido, añadió, a las nuevas herramientas también se les puede
ordenar que generen videos o imágenes falsas o fotografías alteradas.
“Existen
otras redes neuronales generativas como la llamada Dalí, a la cual por medio de
texto le podemos decir que genere este video o imágenes falsas; podremos decir:
oye, genérame un video de un político besándose con otra política. Entonces,
imagínense que esto va a pasar en las elecciones el próximo año con videos e
imágenes falsas”, alertó Savage Carmona.
Entre
los peligros que se han agudizado son el reemplazo de trabajadores por máquinas
automatizadas; la ampliación de la brecha digital entre quienes dominan las
nuevas tecnologías y quienes carecen de acceso a ellas; además de la generación
de información para discriminar o el uso de la IA para fines bélicos o
militares.
Cambiar
el modelo de enseñanza
La
investigadora del Instituto de Investigaciones en Matemáticas Aplicadas y en
Sistemas, Helena Gómez Adorno, coincidió en la necesidad de regular, mas no
prohibir el manejo de la IA.
Indicó
que en cuestiones académicas, y ante la preocupación de que alumnas y alumnos
utilicen las nuevas herramientas digitales para hacer trampa en la realización
de tareas y trabajos escolares, no es suficiente con buscar mecanismos para
verificar la autenticidad de los documentos, por lo cual los profesores deben
analizar la pertinencia de modificar sus métodos de enseñanza y cambiar sus
formas de evaluación.
Como
docentes, tendríamos que empezar a explorar otras formas de evaluar y darles
otro tipo de tareas porque la tecnología ya está, no se va a ir; no solamente
está el chatGTP, hay más en la web y cada día se agregan.
Enfatizó
que se deben buscar nuevas formas de cómo convivir con esta tecnología y
aprovecharla como una herramienta de gran utilidad, tanto para estudiantes como
para profesores.
En lugar de asignarles tareas en las que tienen que responder una pregunta,
tendremos que dejar ese modelo educativo que solamente se usa para validar si
aprendió algo y le preguntamos un concepto. En vez de hacer preguntas o
encargarles un ensayo, mejor que elaboren un mapa conceptual, sugirió.
Robots
e IA
En
cuanto al desarrollo de robots que realicen actividades domésticas a través de
la inteligencia artificial, Savage Carmona explicó que también en este rubro
hay avances espectaculares en los últimos 15 años.
Lo
que parecía ciencia ficción hoy es prácticamente una realidad, con autómatas
que pueden efectuar todo tipo de tareas en el hogar, en las llamadas casas
inteligentes y a través de lo que se conoce como el internet de las cosas.
“Hay
un robot vigilante, el robot que corta el pasto, el robot que aspira; y existen
comercialmente algunos robots de servicio, con sistemas más complejos como el
que plancha y dobla la ropa, o el que realiza tareas de cuidados”, detalló.
El
investigador subrayó: para que un robot de servicio pueda realizar las
actividades domésticas básicas tiene que reconocer comandos de voz, objetos y
personas; entender las palabras, además debe identificar lugares y ser capaz de
planear acciones y movimientos.
Lo
que actualmente facilita que reconozcan objetos son las llamadas redes neuronales
convolucionales, que retoman el concepto de las neuronas, logran desarrollar
grandes redes para almacenamiento de datos e información, que son alimentadas
permanentemente por personas, abundó el experto.
FUENTE: UNAM