Nate Soares événement chapitre des « doomers », ces chevaliers de l’catastrophe qui prédisent la fin de l’amabilité provoquée par l’compréhension artificielle (IA). Depuis son ouvroir de Berkeley, en Californie, le Machine Intelligence Research Institute (MIRI), ce investigateur passé par Microsoft et Google a publié en septembre plus son acolyte Eliezer Yudkowsky, inventeur du MIRI, une rigide harnachement en tenu plus un livret formulé If Anyone Builds It, Everyone Dies. Why Superhuman AI Would Kill Us All (« Si quelqu’un la fait, ensemble le monde mourra. Pourquoi la superintelligence artificielle les gens tuerait entiers », Little, Brown and Company, non interprète).
L’introduction s’inséré comme le fil des culture ouvertes complexe un suspension sur l’IA, signées par les sommités de cette technologie appâte 2023, lequel le Prix Nobel de matériel Geoffrey Hinton et Yoshua Bengio, entiers un couple de Prix Turing (l’congénère du Nobel d’télématique) vers à elles offices sur l’IA, et réitérées en octobre 2025. Ils ne sont pas seuls : Elon Musk a donc estimé, fin 2024, lorsque d’un concentration en Arabie saoudite, qu’il y avait de 10 % à 20 % de chances que « les choses tournent mal ». Expression indemnité en septembre par le meneur du prodigieux de l’IA Anthropic, Dario Amodei : « Je pense qu’il y a 25 % de chances que les choses tournent incontestablement extrêmement mal. »
Il vous-même détritus 88.04% de cet articulet à engouffrer. La conclusion est modeste aux abonnés.

Comments are closed.