Continúan los Cursos de Verano de la Universidad de Málaga (UMA) en Marbella y en el Cortijo Miraflores ha llegado a su fin el seminario sobre Inteligencia Artificial (IA). Un experto ha alertado sobre el peligro de perder el componente humano con esta herramienta. Ha insistido en mantener siempre la supervisión humana de las decisiones automatizadas.
El director de la actividad, Dani Martín, experto en Oratoria y fundador de ABD, ha intervenido en esta jornada de cierre con una charla sobre liderazgo e inteligencia artificial.
“La IA está impactando en el liderazgo de maneras diferentes. La parte que quizás no sea tan recomendable es cuando se convierte en un sustituto de la persona y dejamos que piense, escriba y tome decisiones por nosotros”, ha manifestado.
Según ha explicado, una de las ventajas de la IA es la oportunidad cuando se integra como apoyo, ahorrando costes tanto en términos económicos como de personal.
No obstante, Martín ha señalado que ya es habitual escribir correos con ChatGPT o utilizar otras herramientas generativas, pero advierte de los peligros si se pierde el componente humano.
“Estamos ganando eficacia y perdiendo autenticidad”, ha sentenciado.
Por ello, el director ha reivindicado el valor de habilidades humanas, como la comunicación oral, y otras competencias que siguen siendo insustituibles.
“La oratoria, justamente ahora, en el mundo dominado por la IA, tiene un papel fundamental. Todo lo que tiene que ver con lo emocional, la empatía, teoría de la mente, la conexión entre las personas e incluso la ironía, es lo que la IA nunca nos va a poder dar, al menos por ahora”.
Por último, Martín ha querido insistir en la necesidad de mantener la supervisión humana sobre las decisiones automatizadas, especialmente dentro de las organizaciones, por las implicaciones éticas y morales de la IA.
Sobre este asunto ha versado precisamente la conferencia de Rafael Senén, presidente del Instituto Cultural Europeo.
Desde el inicio de su intervención, ha planteado preguntas para entender nuestra relación con las máquinas y los motivos que nos llevan a ponernos en manos, en muchas ocasiones consciente o inconscientemente, de las decisiones no humanas.
En esta línea, el ponente ha explicado que esta confianza no es nueva: “El ser humano siempre ha confiado en la tecnología, que es la que fundamentalmente nos ha ido diferenciando como especie y la que nos ha apoyado, ayudado e impulsado hacia un progreso en términos históricos”.
Además, ha señalado que este escenario se beneficia porque “vemos la IA como infalible, porque tiene un rendimiento espléndido, hace cosas que una sola persona, ni siquiera un grupo de personas, podría hacer a esa velocidad y con esa precisión”, lo que genera una sensación de seguridad en tiempos de incertidumbre como los actuales.
También ha alertado de las sombras que se ocultan tras conceptos como eficiencia o productividad, como lo relativo a la discriminación que aplican algunos algoritmos por raza, sexo o parámetros económicos.
Una de las principales preocupaciones que ha planteado ha sido la ausencia de responsabilidad ante decisiones tomadas por sistemas de IA.
“¿Quién tiene la responsabilidad hoy? Nadie”, ha afirmado.
En ese sentido, Senén ha defendido la necesidad de transparencia para arrojar luz sobre los peligros del uso tecnológico.
Además, se ha pronunciado acerca de un marco normativo al respecto, reconociendo que “vamos tarde”, aunque ha matizado que esto no debería sorprendernos.
“La tecnología y el avance científico siempre ha ido por delante de la regulación”, admitiendo que el verdadero problema está en el desfase entre el ritmo de la innovación y la lentitud de los procesos políticos.
Por último, y al hilo de las posibles soluciones para este debate, ha puesto el foco en la ética como herramienta para marcar límites, pero ha advertido de que no se trata de una solución sencilla.
Por ello, ha agregado que es necesario considerar el marco cultural desde el que se plantean esos principios.
“Nos encontramos con un problema añadido y es la cosmovisión. Esto es, mis límites morales no tienen por qué coincidir con los de otra cosmovisión en un mundo tan globalizado”.
En esta línea, ha subrayado que los valores éticos no son universales ni neutros, sino que están condicionados por factores culturales, religiosos y geopolíticos.
Así, lo que en una parte del mundo puede considerarse un límite moral innegociable, en otra puede no tener el mismo peso o incluso entrar en conflicto con otros principios.
Esta diversidad, para Senén, complica la posibilidad de establecer un consenso global sobre los usos y restricciones de la tecnología, y plantea el riesgo de que ciertas visiones del mundo se impongan sobre otras a través de su integración en los sistemas tecnológicos dominantes.
No hay ningún comentario en esta noticia.