La Inteligencia Artificial está generando mucha repercusión en todo el planeta Tierra y la comunidad científica no es la excepción. En las últimas horas, científicos de varios centros de investigaciones y universidades de numerosos países firmaron un artículo en la revista Science en el que advierten sobre las consecuencias catastróficas que los fallos de esta tecnología puede causar.
Según explicó la comunidad científica, los sistemas de IA se han puesto a prueba en varias aplicaciones, desde el diagnóstico médico hasta la navegación de coches autónomos, mas indicaron que son escenarios “de alto riesgo”, que los márgenes de error son escasos y las consecuencias de un fallo en esos casos podrían ser letales.
La publicación en la revista Science llegó solo dos semanas después de que 5.500 expertos de todo el mundo publicaran una carta abierta pidiendo pausar los experimentos con la IA más potente y avanzada (la “generativa”) por un tiempo debido a que los riesgos que puede generar en la sociedad son muchos.
Hoy, el artículo fue firmado por personas de la comunidad científica pertenecientes a las universidades de Cambridge, Harvard, Stanford, Shandong (China), la Politécnica de Valencia, el Imperial College London, el Instituto Tecnológico de Massachusetts (MIT) y empresas como Google o la británica DeepMind, una de las principales multinacionales del sector.
Los científicos explicaron que hay una necesidad de que las publicaciones sobre Inteligencia Artificial incluyan los datos vitales para comprender y abordar posibles errores intermedios que podrían conducir a posibles fallos. Además, solicitaron que los datos estén a disposición de la comunidad científica.
Entre otras cosas, reclamaron informes más detallados y principalmente una mayor disponibilidad de los datos que se utilizaron para los análisis. Una de las explicaciones es que de esa forma, la investigación sobre Inteligencia Artificial podría aproximarse a los protocolos registrados en otras disciplinas como la medicina o la física, por citar dos ejemplos.