La IA generativa llega a todos los sectores y supone una transformación para todas las empresas. Así introdujo su intervención Clarisa Martínez, directora de Analítica e Inteligencia Artificial de Capgemini, al presentar las conclusiones de un estudio sobre “Inteligencia artificial en las organizaciones”. La IA “debe ayudarnos a ser más eficientes en la toma de decisiones de las organizaciones y a desarrollar nuevas formas de trabajar más éticas y sostenibles, además de permitir mejorar en los modelos de precisión”.
La jornada fue inaugurada por la presidenta de Diálogo, Loreto Ordóñez, quien destacó que la inteligencia artificial “genera expectativas, fomenta la innovación, y atisba nuevas formas de trabajar”.
Durante la mesa redonda: Inteligencia artificial: progreso e innovación en la industria, Elena Gil, directora de unidad de IA y Big Data en Telefónica, ha señalado que la IA supone una oportunidad que aporta inmensos beneficios, pero supone también “una aproximación responsable a la tecnología”. Advierte que “la IA generativa se ha democratizado demasiado rápido y hay que tratarla con cautela”. En cuanto a la regulación, ha indicado que siempre va por detrás y “son las empresas las que deben intentar ayudar a conseguir ese equilibrio”.
Iván Lalaguna, Investigador en Inycom, ha indicado que en cuanto a la utilización de la IA en medicina el problema son los datos “y la relación con las características de las personas”. Para resolverlo se utilizan datos equivalentes “que no pertenecen a nadie” afirmó. Tras resaltar que una preocupación generalizada es la privacidad indicó que “un modelo que identifica las necesidades puede ser mal utilizado y se corre el riesgo de utilizar datos personales. La IA no va a sustituir a las personas, es un sistema complementario y favorece una medicina más predictiva, pero se debe utilizar siempre con cautela” indica.
Javier Mallo Sánchez, Executive Líder Tecnología y Producción de Digital Data de Leroy Merlin, ha destacado la oportunidad que supone la IA en el mundo del retail en cuanto a eficiencia y rentabilidad. “Estamos en un modo de prueba, buscamos la satisfacción del cliente, mejorar la logística y el trabajo de los empleados, y poner el foco en la privacidad”.
En la mesa redonda: Inteligencia artificial: Ética y regulación, Borja Adsuara Varela, Doctor en Derecho. Profesor de Filosofía del Derecho y Derecho Digital de la Universidad Complutense de Madrid y la Universidad Villanueva, ha indicado que la IA “es una revolución y una oportunidad, pero también una amenaza. Hay que intentar ver el lado positivo y vigilar los malos usos, pero también evitar que esta vigilancia lastre los buenos usos de la tecnología”. Cree también que se deben establecer unas normas y que debe haber una colaboración público-privada para la regulación de estos temas entre las administraciones y las empresas. “Quién vigila a los que nos vigilan”, apunta Borja Adsuara.
En este sentido, Cristina Aranda, cofundadora de BigOnion y Mujeres Tech, coincide en que la “IA forma parte de nuestra vida, pero su impacto no está regulado, y alguien se tiene que hacer responsable del uso de la IA, y deben ser las personas no las maquinas”. Destaca también que es necesario agilizar la formación de las personas en estos temas y le preocupa que no haya proyectos de formación rápida en todo tipo de perfiles.
Idoia Salazar, presidenta y codirectora del Área de Ética y Responsabilidad de Odiseia, se muestra de acuerdo en que no se debe limitar los buenos usos por los posibles riesgos. “La IA ha democratizado el conocimiento pero todos tenemos derecho a conocer cómo impacta esta tecnología”. También destaca que “es necesario que cada país trabaje en los casos más prolíficos y ponga medidas”. Indica que es necesario que haya “normas que lleven multas importantes para regular esa tecnología. No vamos a intentar frenar la tecnología porque llevamos mucho retraso, queremos generar confianza en el mercado y la regulación genera esta confianza”, apunta.
Juergen Foecking, experto en Política Digital de la UE, señala que “en Bruselas es donde mas hemos avanzado con los retos éticos. Las plataformas de EEUU y China van por delante y no sabemos lo que está pasando, nosotros tenemos un mercado único que debe cumplir con los retos de privacidad. Por eso hemos elaborado un borrador legislativo que debe ser adoptado por el Parlamento Europeo, pero nos hemos dado cuenta de que la IA generativa no está ahí y tenemos que incluirla”. Incide en que se necesita un marco global, “que es muy difícil por la diferencia entre los distintos países. En Europa estamos buscando países que tengan un punto parecido al nuestro pero el gran reto es ponerse de acuerdo a escala mundial”. Apunta que la IA “es un reto y tiene más riesgos elevados que incluso el cambio climático”.
#IAAmenazaoRevolución
Organizado por: