La superinteligencia ya está cerca: un ex empleado de OpenAI habló sobre los peligros de la inteligencia artificial.

La superinteligencia ya está cerca: un ex empleado de OpenAI habló sobre los peligros de la inteligencia artificial

En los próximos años, la humanidad puede perder el control de la IA.

El ex analista de seguridad de OpenAI, Leopold Aschenbrenner, publicó un artículo que describe el futuro de la inteligencia artificial y los riesgos asociados con su desarrollo. En su opinión, para 2027 se podría crear la llamada inteligencia artificial general (AGI). Será capaz de resolver una amplia gama de problemas, autoaprendizaje y de ninguna manera inferior a la mente humana.

En su trabajo, Aschenbrenner enfatiza que el desarrollo de la IA avanza a un ritmo acelerado y la humanidad no tiene tiempo para darse cuenta de esa velocidad. Según sus palabras, en 2026 los prototipos AGI que se están desarrollando serán más inteligentes que los graduados universitarios y, al final de la década, podrán superar la inteligencia de cualquier persona. Esto conducirá al surgimiento de la superinteligencia artificial.

Según Aschenbrenner, la aparición de la IA en el nivel de la investigación automatizada conducirá a un desarrollo avanzado casi incontrolable de la AGI. Y esto creará graves amenazas para toda la humanidad. El autor subraya que podría producirse un enfrentamiento entre Estados Unidos y China.

También señala en su texto que en las nuevas realidades la carrera armamentista entre países se desarrollará precisamente en el campo del desarrollo de la inteligencia artificial, que controlará muchas áreas de la vida, incluidas las cuestiones de defensa. La principal amenaza es que la humanidad se acerque a este punto sin estar preparada para lo que enfrentará.

Aschenbrenner se queja de que, a pesar de las enormes inversiones financieras, las empresas que desarrollan máquinas de IA no prestan atención a la seguridad. De hecho, con su trabajo quiere llamar la atención de los reguladores sobre este problema.