«La superinteligencia artificial es inevitable», advierten al mundo los creadores de Chat GPT

La compañía creadora de los sistemas de inteligencia artificial Open AI advirtieron que el avance de este invento podría seguir creciendo a tal nivel que no se podría regular debido a que una evolución como la que se avecina no se puede detener.

Según los cofundadores y creadores de OpenAI “…la creación de sistemas de inteligencia artificial superinteligentes es solo cuestión de tiempo y podría presentar un riesgo existencial para la humanidad”.

«Tal y como vemos el panorama ahora, es concebible que en los próximos diez años los sistemas de IA superen el nivel de los expertos en la mayoría de los ámbitos y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad», escribieron en el blog de la empresa Sam Altman, Greg Brockman e Ilyá Sutskever.

Los mismos creadores del famoso y preocupante Chat GPT dijeron que esta supertecnología no es como lo que se ha visto y definitivamente rebasa los límites de poder que otras habían establecido.


“La superinteligencia será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado y, además de ofrecernos un futuro mucho más próspero, tiene también un potencial inmensurablemente destructivo. La energía nuclear comúnmente se utiliza como un ejemplo histórico de una tecnología con esta propiedad, la biología sintética es otro ejemplo»
, señalaron.

Vaticinaron además de que lo que hoy preocupa solo seguirá creciendo porque no existe un ente regulador para ello y que no existe la garantía de que aun teniéndolo, vaya a funcionar.

«Los sistemas que nos generan preocupación tendrán la potencia más allá de cualquier tecnología creada hasta ahora. En nuestra opinión, detener la creación de la superinteligencia sería arriesgado y difícil, porque ya es una parte intrínseca del desarrollo tecnológico en curso, y pararlo requeriría algo así como un régimen de vigilancia global, y ni siquiera hay garantías de que esto funcione», aseguraron.

Para ello, los cofundadores de OpenAI dijeron que el plan por ahora es coordinar los esfuerzos de los “principales desarrolladores de inteligencia artificial en un intento de garantizar la seguridad de las nuevas tecnologías, sobre todo cuando se trata de capacidades que igualen o excedan a las del cerebro humano”.

Asimismo desean crear un ente regulador internacional para dicha industria, algo similar al Organismo Internacional de Energía Atómica (OIEA), que ayude a reducir el riesgo existencial para la humanidad.

Al cierre de su publicación hicieron énfasis en la necesidad de obtener la «capacidad técnica para hacer que la superinteligencia sea segura. Sin embargo, esto todavía es una cuestión de investigación abierta, a la que el propio equipo de OpenAI está dedicando muchos esfuerzos”.

Cargando ...