La inteligencia artificial (IA) se ha vuelto omnipresente en nuestras vidas, pero también plantea grandes interrogantes sobre su funcionamiento e impacto social. ¿Se le puede considerar una tecnología como cualquier otra que solo necesita algunas mejoras técnicas o hace falta una regulación especial para la IA? Estas son algunas de las preguntas que los expertos en tecnología y regulación están debatiendo.
La IA ya se utiliza en áreas tan diversas como los diagnósticos médicos, los coches autónomos, la moderación de contenidos en las redes sociales o las operaciones militares con drones. Y su alcance no hace más que aumentar con nuevas herramientas como DALL-E para generación de imágenes o ChatGPT para mantener conversaciones.
Las grandes empresas tecnológicas como Google, Meta o Microsoft están invirtiendo miles de millones en investigación en IA. Se espera que el mercado mundial de la IA alcance los 500.000 millones de dólares en 2024. Claramente, no es una tecnología que vaya a desaparecer.
Sin embargo, la IA también plantea toda una serie de riesgos potenciales sobre los que urge actuar, según los expertos:
- Los algoritmos pueden mostrar sesgos racistas, sexistas u otros prejuicios que afectan a grupos vulnerables.
- Herramientas como los generadores de texto pueden utilizarse para difundir desinformación o contenidos dañinos.
- Los sistemas de IA armamentísticos autónomos podrían tomar decisiones letales sin supervisión humana.
- Las técnicas de IA que generan imágenes y texto hiperrealistas hacen más fácil la suplantación de identidad y los engaños.
Ante estas amenazas surgen tres posibles enfoques, que no son necesariamente excluyentes:
Prohibición de usos claramente peligrosos. Por ejemplo, algunos piden la prohibición total de los sistemas de armas autónomas. Pero distinguir usos aceptables de inaceptables no siempre es sencillo.
Autorregulación de las empresas tecnológicas, que fijen sus propias normas sobre cómo implementar la IA de forma ética. Pero su cumplimiento sería voluntario y podría quedar en papel mojado.
Supervisión pública y legislación que establezca obligaciones y estándares para el uso de estas tecnologías, incluyendo la transparencia en los algoritmos. Pero una regulación excesiva también podría obstaculizar la innovación en IA.
Sea cual sea el modelo regulatorio, desde organizaciones internacionales como la OCDE se hacen llamamientos a la cooperación y la prudencia para que la innovación en IA siga siendo posible sin poner en peligro el interés general.
Habrá que encontrar puntos en común y entendimiento mutuo entre responsables políticos, empresas tecnológicas y sociedad civil para avanzar en este terreno tan complejo. Solo así se podrán equilibrar correctamente todos los intereses y derechos en juego.
Fuente: prensa.ec
Comments are closed, but trackbacks and pingbacks are open.