/

Los riesgos de la Inteligencia Artificial: ¿Podría extinguirse la humanidad?

Especialistas insisten en que tiene que haber una regulación para disminuir los riesgos. De hecho, postulan a que tiene que ser una prioridad mundial, tal como ocurre con el armamento nuclear.

Los principales creadores de la Inteligencia Artificial han alertado al mundo sobre el “peligro de extinción” que supone esta tecnología para la humanidad. De hecho, algunos postulan que este tema debería ser prioridad mundial como ocurre con las pandemias y el armamento nuclear. Además, expertos insisten en que tiene que haber una regulación lo antes posible.