¿Ustedes consideran que una computadora puede impartir justicia?
¿O permitirían que un robot manejara un arma de forma autónoma? El uso de inteligencia artificial para tomar decisiones que antes correspondían a los humanos es cada vez más frecuente en el mundo en diversos ámbitos. En Estados Unidos, y en Europa, por ejemplo, ya se usan jueces digitales para dirimir conflictos en los tribunales. Además, los ejércitos más avanzados disponen, entre otras cosas, de drones que identifican enemigos y destruyen objetos por sí solos. El incremento en el uso de esta tecnología trae varios dilemas éticos. ¿Deberían las máquinas resolver autónomamente sobre la vida, la muerte o la libertad de las personas? ¿Los pasos que toman estas máquinas están libres de sesgo? ¿Qué control tenemos los humanos sobre los algoritmos que hacen funcionar a este tipo de dispositivos? De Inteligencia Artificial y sus dilemas éticos discutimos esta mañana en una nueva edición de La Mesa TIC. Para eso recibimos a Jimena Hernández, abogada. Especialista en Derecho Informático y Nuevas Tecnologías. Asesora jurídica en la Agencia Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (AGESIC). Paula Martínez, ingeniera eléctrica. Co fundadora y CEO de Marvik, empresa de desarrollo de software especializada en machine learning. Guillermo Moncecchi, ingeniero en Computación. Doctorado en Informática. Ex subsecretario de Industria, Energía y Minería. Hoy es director de Desarrollo Ambiental de la Intendencia de Montevideo.La Mesa TIC. Inteligencia Artificial: ¿Deberían las máquinas decidir sobre la vida, la muerte o la libertad de las personas?
En la edición del martes 13 de setiembre de 2022: Inteligencia Artificial: ¿Deberían las máquinas decidir sobre la vida, la muerte o la libertad de las personas?
Tiempo de lectura: < 1 minuto
Conecta