El desarrollo de la tecnología de IA ha avanzado drásticamente en la última década y seguirá haciéndolo en el futuro.
Ian Hogarth, un inversor en inteligencia artificial y cofundador de Songkick, advierte sobre el riesgo de una "catástrofe a nivel nuclear" asociada con el avance de la tecnología y sus posibles implicaciones en un artículo del Financial Times.
Habla sobre la inteligencia artificial general, sobre cómo en un futuro una máquina puede comprender, aprender y hacer todas las cosas que un humano puede hacer, como "IA similar a Dios".
Debido al increíble avance y su potencial , Hogarth advierte que si la tecnología no se gestiona y regula adecuadamente, podría conducir a la destrucción de la raza humana.
El director ejecutivo de Nvidia,Jensen Huang quien es el fabricante de chips que se usa para potenciar la IA, dijo que la IA se ha convertido 1 millón de veces más poderosa en la última década.
Hogarth también indicó que algunas de las IA más grandes presentes en la actualidad tienen un poder de procesamiento impresionante de 100 millones de veces más que antes.
A pesar de los muchos beneficios financieros de la IA y el entusiasmo actual, Hogarth llama a la cautela debido al inmenso poder que tendrá en un futuro
Advierte que si no se controla la "IA similar a Dios" podría ser una fuerza más allá de nuestro control, y el riesgo de esperar hasta que sea demasiado tarde para tomar precauciones.
OpenAI, que tiene muchas personas notables asociadas con él, como su director ejecutivo Sam Altman, ha estado avanzando a pasos agigantados hacia los avances en IA.
En una entrevista de 2019 con el New York Times, Altman comparó las ambiciones de esta empresa con el Proyecto Manhattan.
Enfatizó que “la tecnología sucede porque es posible” y señaló que compartieron el mismo cumpleaños.
Esta tecnología tiene el potencial de brindar grandes beneficios al mundo, pero advierten los expertos que no hay que perder de vista los peligros potenciales que acompañan a una tecnología con tanto poder.
Hogarth implora al público que reconsidere su opinión sobre la situación y tomen medidas para controlar la propagación de la IA con regulación y supervisión.
Al crear estas pautas, es posible reducir el riesgo de consecuencias caóticas y potencialmente catastróficas y permanecer atentos a las posibles implicaciones.