Riesgo existencial de la inteligencia artificial
hipótesis de que la inteligencia artificial puede causar la extinción de la humanidad / De Wikipedia, la enciclopedia encyclopedia
El riesgo existencial de la inteligencia artificial general es la hipótesis de que un progreso sustancial en la inteligencia artificial general (IAG) podría resultar en la extinción humana o alguna otra catástrofe global irrecuperable.[1][2][3]
Un argumento para esta hipótesis es que la especie humana actualmente domina a otras especies porque el cerebro humano tiene algunas capacidades distintivas de las que carecen otros animales. Si la IA superara a la humanidad en inteligencia general y se volviera "superinteligente", entonces podría volverse difícil o imposible de controlar para los humanos. Así como el destino del gorila de montaña depende de la buena voluntad humana, el destino de la humanidad podría depender de las acciones de una futura superinteligencia mecánica.[4]
La probabilidad de este tipo de escenario es ampliamente debatida y depende en parte de diferentes escenarios sobre el progreso futuro de la informática.[5] Destacados científicos informáticos y directores ejecutivos de tecnología como Geoffrey Hinton,[6] Alan Turing, Elon Musk,[7] y Sam Altman, director ejecutivo de OpenAI, han expresado su preocupación por la superinteligencia.[8] En 2022, una encuesta a investigadores de IA (con una tasa de respuesta del 17%) encontró que más de la mitad de los respondientes creen que existe un 10 por ciento o más de posibilidades de que nuestra incapacidad para controlar la IA provoque una catástrofe existencial.[9][10]
Dos fuentes de preocupación son los problemas del control y la alineación de la IA: que controlar una máquina superinteligente o inculcarle valores compatibles con los humanos puede ser un problema más difícil de lo que se supone ingenuamente. Muchos investigadores creen que una superinteligencia resistiría los intentos de apagarla o cambiar sus objetivos (ya que tal incidente le impediría lograr sus objetivos actuales) y que será extremadamente difícil alinear la superinteligencia con la amplitud completa de importantes valores, valores humanos y aplicar restricciones.[11][12][13] Por lo contrario, los escépticos como el informático teórico Yann LeCun argumentan que las máquinas superinteligentes no tendrán ningún deseo de autopreservación.[14]
Una tercera fuente de preocupación es que la llamada "singularidad tecnológica" repentina pueda tomar por sorpresa a una raza humana que no esté preparada. Ejemplificando: si la primera generación de un programa de computadora que puede igualar ampliamente la efectividad de un investigador de IA, puede reescribir sus algoritmos y duplicar su velocidad o capacidades en seis meses, entonces se espera que el programa de segunda generación tarde tres meses para realizar una parte similar del trabajo. En este escenario, el tiempo para cada generación continúa reduciéndose, y el sistema experimenta una gran cantidad de etapas de mejora sin precedentes en un corto intervalo de tiempo, saltando de un desempeño infrahumano en muchas áreas a un desempeño sobrehumano en prácticamente todos los dominios de interés.[15][16] Empíricamente, ejemplos como el programa AlphaZero en el dominio de Go muestran que los sistemas de IA a veces pueden progresar desde una capacidad limitada a nivel humano hasta una capacidad sobrehumana limitada de forma extremadamenta rápida.[17]