paint-brush
Más de 2000 investigadores predicen el futuro de la IApor@adrien-book
736 lecturas
736 lecturas

Más de 2000 investigadores predicen el futuro de la IA

por Adrien Book4m2024/04/17
Read on Terminal Reader

Demasiado Largo; Para Leer

Una encuesta reciente realizada por AI Impacts, en colaboración con universidades, destaca las predicciones de expertos sobre los hitos futuros y los riesgos potenciales de la IA. Los expertos prevén avances significativos en la IA para 2028, pero expresan su preocupación por la interpretabilidad de la IA, los impactos sociales y los riesgos existenciales. Se enfatizan los llamados a una mayor investigación sobre seguridad de la IA, regulaciones globales y un desarrollo responsable de la IA para navegar las oportunidades y desafíos de la IA para un futuro mejor.
featured image - Más de 2000 investigadores predicen el futuro de la IA
Adrien Book HackerNoon profile picture
0-item
1-item


El ritmo de desarrollo de la Inteligencia Artificial ha alcanzado un crescendo natural. Herramientas como GPT-4 , Gemini , Claude , etc., y sus creadores afirman que pronto podrán cambiar todas las facetas de la sociedad, desde la atención médica y la educación hasta las finanzas y el entretenimiento. Esta rápida evolución plantea preguntas cada vez más críticas sobre la trayectoria de la IA: los beneficios de la tecnología, sí, pero también (¡ principalmente! ) los riesgos potenciales que plantea para todos nosotros.


En estas circunstancias, escuchar, comprender y prestar atención a las perspectivas de los expertos se vuelve crucial. Una encuesta reciente titulada “ Miles de autores de IA sobre el futuro de la IA representa el esfuerzo más amplio para evaluar las opiniones de dichos especialistas sobre el potencial de la IA. Realizado por Katja Grace y su equipo en AI Impacts , en colaboración con investigadores de la Universidad de Bonn y la Universidad de Oxford, el estudio encuestó a 2.778 investigadores, buscando sus predicciones sobre el progreso de la IA y sus impactos sociales. Todos los contactados habían escrito previamente artículos revisados ​​por pares en lugares de IA de primer nivel.


Conclusiones clave del futuro del estudio de la IA

En resumen, la encuesta destaca la enorme complejidad y amplitud de las expectativas y preocupaciones entre los investigadores de IA con respecto al futuro de la tecnología... y sus impactos sociales.


  • Los expertos predicen que la IA alcanzará hitos importantes ya en 2028: “ como codificar un sitio completo de procesamiento de pagos desde cero y escribir nuevas canciones indistinguibles de las reales de artistas de éxito como Taylor Swift ”.


  • Una mayoría significativa de los participantes también cree que los mejores sistemas de IA probablemente alcanzarán capacidades muy notables en las próximas dos décadas. Esto incluye encontrar “ formas inesperadas de lograr objetivos ” (82,3%), hablar “ como un experto humano en la mayoría de los temas ” (81,4%) y comportarse con frecuencia “ de maneras sorprendentes para los humanos ” (69,1%).


  • Además, el consenso sugiere un 50% de posibilidades de que la IA “ supere ” a los humanos en todas las tareas para 2047, una proyección que ha avanzado 13 años en comparación con las previsiones realizadas un año antes .


  • Actualmente se prevé que la probabilidad de que todas las ocupaciones humanas se vuelvan “ completamente automatizables ” alcance el 10% para 2037 y el 50% para 2116 (en comparación con 2164 en la encuesta de 2022 ).


¿Cuándo podrá la IA “realizar” las siguientes tareas?


  • La encuesta indica escepticismo sobre la interpretabilidad de las decisiones de IA, y solo el 20% de los encuestados consideran probable que los usuarios puedan " comprender las verdaderas razones detrás de las elecciones de los sistemas de IA " para 2028. La IA es (infamemente) una caja negra , y esta preocupación refleja desafíos reales y actuales en materia de transparencia de la IA. Esto es particularmente relevante en aplicaciones críticas (finanzas, atención médica...) donde comprender la toma de decisiones de la IA es crucial para la confianza y la responsabilidad.


  • El estudio también destaca preocupaciones " importantes " con respecto a los posibles impactos negativos de la IA. La difusión de información falsa, la manipulación de la opinión pública y los usos autoritarios de la IA crean, como era de esperar, una preocupación sustancial. Los llamados a medidas proactivas para mitigar estos peligros son muy pocos hoy en día, y eso es un problema .


Cantidad de preocupación que merecen los posibles escenarios, organizada de mayor a menor preocupación extrema


  • Existe una amplia gama de opiniones sobre los impactos a largo plazo de la inteligencia artificial de alto nivel, y una parte notable de los encuestados atribuye probabilidades distintas de cero a resultados extremadamente buenos y extremadamente malos, incluida la extinción humana. Eso es científico para " no sabemos qué va a pasar después ". Pero... entre el 38% y el 51% de los encuestados dieron al menos un 10% de posibilidades de que la IA avanzada condujera a resultados tan malos como la extinción humana , lo que parece algo a lo que deberíamos estar atentos.


  • Por último, existe desacuerdo sobre si un progreso más rápido o más lento en la IA sería mejor para el futuro de la humanidad. Sin embargo, la mayoría de los encuestados abogan por priorizar la investigación de seguridad de la IA más de lo que lo hacen actualmente, lo que refleja un consenso cada vez mayor sobre la importancia de abordar los riesgos existenciales de la IA y garantizar su desarrollo y despliegue seguros.


¿Qué hacemos con esa información?

El camino a seguir es bastante claro: los gobiernos de todo el mundo necesitan aumentar la financiación para la investigación de la seguridad de la IA y desarrollar mecanismos sólidos para garantizar que los sistemas de IA se alineen con los valores e intereses humanos actuales y futuros.


El gobierno del Reino Unido anunció recientemente una financiación de más de £50 millones para una variedad de proyectos relacionados con la inteligencia artificial , incluidos £30 millones para la creación de un nuevo ecosistema de IA responsable. La idea es crear herramientas y programas que garanticen aplicaciones responsables y confiables de las capacidades de IA.


Mientras tanto, la Administración Biden-Harris anunció a principios de 2024 la formación del Consorcio del Instituto de Seguridad de la IA de EE. UU. (AISIC), que reúne a más de 200 partes interesadas en la IA, incluidos líderes de la industria, el mundo académico y la sociedad civil. Este consorcio tiene como objetivo apoyar el desarrollo y la implementación de una IA segura y confiable mediante el desarrollo de pautas para la formación de equipos rojos, evaluaciones de capacidades, gestión de riesgos y otras medidas de seguridad críticas.


Éstos son un comienzo, pero demasiado nacionales.


Hoy en día, los gobiernos no pueden limitarse a mirar su propio patio trasero. También necesitamos implementar regulaciones INTERNACIONALES para guiar el desarrollo ético y la implementación de tecnologías de IA, garantizando la transparencia y la rendición de cuentas. Esto incluye fomentar colaboraciones interdisciplinarias e INTERNACIONALES entre investigadores, especialistas en ética y formuladores de políticas de IA. Me sentiré más seguro en el mundo cuando vea que se implementa lo siguiente para fortalecer y mejorar los marcos de derechos humanos existentes:


  • Marcos globales de seguridad de la IA
  • Cumbres internacionales sobre seguridad de la IA
  • Fondos globales de investigación sobre ética y seguridad de la IA.


Demasiado pronto para sacar conclusiones

Quizás sea un poco pronto para caer presa del doomismo. Si bien la encuesta proporciona información valiosa, tiene limitaciones, incluidos posibles sesgos de la autoselección entre los participantes y el (¡ obvio! ) desafío de pronosticar con precisión los avances tecnológicos. Las investigaciones futuras deberían tener como objetivo ampliar la diversidad de perspectivas y explorar las implicaciones del desarrollo de la IA en sectores específicos.


Al final, y con independencia de la exactitud de las predicciones realizadas, necesitamos más que palabras. La IA es una fuente de oportunidades sin precedentes y de desafíos importantes. A través del diálogo abierto entre investigadores, formuladores de políticas y el público, debemos crear reglas que nos protejan del peligro de la IA y nos guíen hacia un futuro mejor para todos .


El mundo es muy grande y nosotros somos muy pequeños. Buena suerte ahí fuera.