Skip to main content

Quelle est la singularité technologique?

La singularité technologique , ou simplement la singularité, est un concept à multiples facettes du futurisme avec plusieurs définitions qui se chevauchent et parfois contradictoires.La définition la plus appropriée et la plus importante de la singularité a été donnée par Vernor Vinge dans son essai: La singularité technologique à venir .Il se réfère au point où l'intelligence surhumaine est créée technologiquement.Ces intelligences surhumaines pourraient alors appliquer leur cerveau et leur expertise à la tâche de créer des intelligences surhumaines supplémentaires ou plus puissantes, ce qui a entraîné un effet boule de neige avec des conséquences au-delà de notre capacité actuelle à imaginer.

Le terme singularité technologique a été inventé par l'analogie avec la singularité dansLe centre d'un trou noir, où les forces de la nature deviennent si intenses et imprévisibles que notre capacité à calculer le comportement de la matière dans ces circonstances tombe à zéro.Souvent mentionné en conjonction avec l'idée de l'intelligence surhumaine dans les dialogues de singularité est la notion d'accélération du changement technologique.Certains ont fait valoir que lorsque la pente des progrès technologiques augmente, il se terminera dans une asymptote, similaire visuellement pour une singularité mathématique.

Cependant, cette notion de singularité n'est pas la même que celle de Vinge;Se référant à l'émergence de l'intelligence surhumaine, ainsi que des vitesses de pensée surhumaines.(Y compris l'intelligence, la capacité de comprendre et de créer des concepts, de transformer les données en théories, de faire des analogies, d'être créatif, etc.) Bien que les intelligences surhumaines créant des intelligences surhumaines supplémentaires entraîneraient en effet l'accélération des progrès technologiques, les progrès ne deviendraient pas infinie,Dans le sens où une singularité mathématique suggérerait.

notre capacité à prédire ce qu'ils seraient capables d'un temps, d'une matière ou d'une énergie donnéesoit précis.Une intelligence surhumaine pourrait être en mesure de façonner un supercalculateur fonctionnel à partir de composants bon marché et facilement disponibles, ou de développer une nanotechnologie à part entière avec rien d'autre qu'un microscope à force atomique.Parce que la capacité d'une intelligence surhumaine à concevoir et à fabriquer des gadgets technologiques dépasserait rapidement les meilleurs efforts des ingénieurs humains, une intelligence surhumaine pourrait très bien être la dernière invention que l'humanité doit jamais faire.En raison de leur génie surhumain et des technologies qu'ils pourraient rapidement développer, les actions des intelligences émergeant d'une singularité technologique pourraient entraîner l'extinction ou la libération de notre espèce entière, selon les attitudes des intelligences surhumaines les plus puissantes envers les êtres humains. Le philosophe d'Oxford, Nick Bostrom, directeur du Oxford Future of Humanity Institute et de l'organisation transhumaniste mondiale , soutient que la façon dont les intelligences surhumaines traitent les humains dépendront de leurs motivations initiales au moment de leur création.Une gentille intelligence surhumaine serait, en voulant préserver sa gentillesse, engendrer des versions aimables (ou plus gentilles) de lui-même alors que la spirale d'auto-amélioration s'est poursuivie.Le résultat pourrait être un paradis dans lequel les intelligences surhumaines résolvent les problèmes du monde et offrent une amélioration consensuelle de l'intelligence aux êtres humains.D'un autre côté, une intelligence surhumaine malveillante ou indifférente serait susceptible de produire davantage de la même, entraînant notre destruction accidentelle ou délibérée.Pour ces raisons, la singularité technologique pourrait être la jalon la plus importante à laquelle nos espèces seront jamais confrontées. Plusieurs voies vers l'intelligence surhumaine ont été proposées par les analystes et défenseurs de la singularité.Le premier est ia, ou amplification de l'intelligence , en prenant un humain existant et en la transformant en un Bei non humainNg par la neurochirurgie, l'interfaçage cérébral du cerveau ou peut-être même l'interfaçage cerveau cerveau.L'autre est Ai, ou Intelligence artificielle , la création d'un système cognitif dynamique dépassant les humains dans sa capacité à former des théories et à manipuler la réalité.Lorsque l'une ou l'autre de ces technologies atteindra le niveau de sophistication nécessaire pour produire de l'intelligence surhumaine est incertain, mais une variété d'experts, y compris le bostrom, cite les dates dans la gamme 2010-2030 comme probable.

parce que la singularité peut être plus proche que beaucoupsupposerait, et parce que les motivations initiales de la première intelligence surhumaine peuvent déterminer le sort de notre espèce humaine, certains philosophes-activistes (singularitaires) considèrent la singularité non seulement comme un sujet de spéculation et de discussion, mais comme un objectif d'ingénierie pratique qui significatif ce significatifDes progrès peuvent être réalisés vers nos jours.Ainsi, en 2000, le Singularity Institute for Artificial Intelligence a été fondé par Eliezer Yudkowsky pour travailler exclusivement vers cet objectif.