Vas dire ça aux créateurs de Google qui sont des transhumanistes convaincus. Le directeur de Calico (la branche bio-tech de Google dont la devise est tuer la mort) a même déclaré publiquement son espoir de vivre 800 ans. La pub internet et Android finance les recherches sur l'immortalité mécanique.
Et penser que Dieu est mort (ou n'existe pas) est un acte de foi irrationnel et non scientifique. La bonne attitude est de dire "Dieu est une hypothèse, dont n'avons actuellement aucune preuve pour infirmer ou confirmer. Pour le moment, on peut remonter jusqu'au Big Bang sans avoir besoin d'une puissance supérieure pour comprendre comment les choses ont évolués. Mais avant ? Mystère et boule de gomme".
Si mes souvenirs sont bons, Contact n'est pas un ouvrage parlant de la rencontre avec les Aliens, mais d'une tentative de contact avec Dieu. Les Aliens du livre envoient des messages cryptés dans l'espace, pour chercher des civilisations capable de les décrypter, afin de leur dire "le créateur de l'univers a laissé des messages cryptés dans certaines constantes cosmiques (comme pi). On a réussi à en décoder certains. Si vous trouvez quelque chose, contactez-nous." Je n'ai pas vu le film, je ne sais pas si cet aspect y est présent.
Yes exact ! En fait j'avais vu une interview de l'auteur qui exprimait son point de vu sur le programme SETI.
Mais sinon dans le livre, il parle des superstructures extraterrestres déposées ici et là dans l'univers comme relais cosmodésiques (oui mass effect s'est certainement inspiré de tout ça). Mais oui le thème du livre c'est l'existence irréfutable de dieu par ce message dans PI (si vous voulez savoir, faut le lire :P), je trouve cette idée géniale.
Vas dire ça aux créateurs de Google qui sont des transhumanistes convaincus. Le directeur de Calico (la branche bio-tech de Google dont la devise est tuer la mort) a même déclaré publiquement son espoir de vivre 800 ans. La pub internet et Android finance les recherches sur l'immortalité mécanique.
Et penser que Dieu est mort (ou n'existe pas) est un acte de foi irrationnel et non scientifique. La bonne attitude est de dire "Dieu est une hypothèse, dont n'avons actuellement aucune preuve pour infirmer ou confirmer. Pour le moment, on peut remonter jusqu'au Big Bang sans avoir besoin d'une puissance supérieure pour comprendre comment les choses ont évolués. Mais avant ? Mystère et boule de gomme".
Je suis assez d'accord, puis dire que Dieu n'existe pas, ou qu'il est mort, c'est dire que des milliards de personnes ont tord. Après c'est pas un argument (sujet de BAC : "la majorité a t-elle raison"), mais c'est un élément important qui impose l'obligation d'apporter des preuves indiscutables pour tous.
EDIT:
Vraiment super ton article Ceroce, effectivement long, mais super intéressant, merci !
Vous avez entendu parlé du deep learning ? Je regardais des conférences l'autre jours, on parlait de machines capable d'apprendre des concepts par elles même. Un type a fait un programme dans lequel il a enregistré sa voix puis il a écrit quelque chose à l'ordinateur qui a répété des mots avec la voix de son auteur. Il a appris à l'imiter. J'ai plus le lien sous la main...
L'intelligence artificielle c'est vraiment quelque chose qui me fascine...
Tient ça me rappelle un truc tout ça : en 1ère, j'avais fait un TPE sur l'intelligence artificielle. Alors pour illustrer mes écrits, j'avais conçu une pseudo intelligence artificielle. ça date, c'est pas mit à jour mais finalement ça fonctionne toujours. Y'a une base de donnée d'environs 200 mots derrière. Par contre le code me pique les yeux... trop vieux tout ça ^_^
Et penser que Dieu est mort (ou n'existe pas) est un acte de foi irrationnel et non scientifique. La bonne attitude est de dire "Dieu est une hypothèse, dont n'avons actuellement aucune preuve pour infirmer ou confirmer. Pour le moment, on peut remonter jusqu'au Big Bang sans avoir besoin d'une puissance supérieure pour comprendre comment les choses ont évolués. Mais avant ? Mystère et boule de gomme".
Il n'y a pas d'"avant" le Big Bang. Le Big Bang a créé simultanément la matière ET le temps.
C'est loin d'être une certitude pour tous. L'hypothèse de l'univers éternel basé sur une série de Big Bang et de Big Crush est toujours possible, de même que celle du méta-univers incluant une multitude de sous-univers, et d'autres modèles encore plus exotique. Les physiciens sont loin d'avoir trouvés LA réponse. Ils pourront se disputer encore pendant des années (siècles ?) sur le sujet.
Tient ça me rappelle un truc tout ça : en 1ère, j'avais fait un TPE sur l'intelligence artificielle. Alors pour illustrer mes écrits, j'avais conçu une pseudo intelligence artificielle. ça date, c'est pas mit à jour mais finalement ça fonctionne toujours. Y'a une base de donnée d'environs 200 mots derrière. Par contre le code me pique les yeux... trop vieux tout ça ^_^
ça me rappelle un vieux logiciel simulant un psy virtuel, dont je ne me souviens pas du nom (lisa peut-être ?)
>Bonjours, parlez-moi de vous
>Dans ma jeunesse j'avais des problèmes avec ma mère
Oui je m'étais basé là dessus en incluant un mécanisme de réponse à la fin il faisait un résumé du problème et donnait le coût de réparation. C'est ELIZA le psy virtuel.
C'est loin d'être une certitude pour tous. L'hypothèse de l'univers éternel basé sur une série de Big Bang et de Big Crush est toujours possible, de même que celle du méta-univers incluant une multitude de sous-univers, et d'autres modèles encore plus exotique. Les physiciens sont loin d'avoir trouvés LA réponse. Ils pourront se disputer encore pendant des années (siècles ?) sur le sujet.
J'aime bien l'hypothèse provenant de la mécanique quantique, disant que les univers évoluent au sein d'un super-espace multi-dimensionnel, les bigs bangs étant provoqués par une collision entre deux univers. A chaque fois, les constantes cosmogoniques sont rebootées et une nouvelle variante d'univers surgit. On sais que les constantes fondamentales varient pendant les premiers instants du Big Bang avant de se figer. La plupart des combinaisons ne sont pas viables, menant à des univers stériles (pas de matière par exemple).
Les constantes fondamentales de notre univers sont merveilleusement équilibrées, ce qui laisse à penser que :
- Hypothèse A, il y a un créateur (mais d'où viendrait-il ?)
- Hypothèse B, notre univers a tiré le gros lot pendant son Big Bang , au milieu d'une multitude d'autres espaces ayant ratés leurs démarrages.
On en revient au thème initial du topic, à l'échelle de l'infini.
ça fait froid dans le dos ! Pas de Terminator ou de Matrix en vue, juste une AI amorale qui exécuterait ce pour quoi elle a été programmée...
Dans l'article il distingue trois étapes aux AI :
- ANI (Artificial Narrow Intelligence) : celle que l'on connait aujourd'hui du genre Siri, ou le logicielle de Google qui dessine des formes de visage dans n'importe quelle image.
- AGI (Artificial General Intelligence): Une intelligence du même niveau que l'homme.
- ASI (Artificial Superintelligence) : Une intelligence très supérieur à l'homme. Pas seulement en vitesse, mais en type. Pour appréhender ça il compare la différence d'intelligence entre une fourmis et un singe, et entre un singe et un homme. L'ASI serait 1000 fois (ou plus) supérieur que l'intelligence qui nous sépare entre nous et les fourmis. Les fourmis ne nous comprenne pas, les singes ne comprennent pas non plus nos concepts. Bah là ça serait pareil.
Les vitesses d'évolutions d'une AGI seraient nettement supérieur à la notre. Et une AI qui deviendrait AGI ne tarderait pas à devenir ASI. Donc en gros il faut qu'on fasse très attention à l'AGI ou même l'ANI que l'on créé.
Il prend l'exemple de l'ANI "Turry", dont le but est de reproduire le plus humainement possible l'écriture, d'améliorer son algorithme continuellement et d'analyser le plus possible d'écriture. Pour cela ils lui ont donné comme devoir d'écrire avec un bras robotisé la phrase "We love our custumer. Robotica". Au début tout se passe bien, Turry améliore son fonctionnement grâce à la BDD donnée par ses créateurs. Puis quand ses créateurs lui demandent ce dont elle a besoin pour s'améliorer, elle demande l'accès à Internet. Puis un mois plus tard elle détruit la race humaine, transforme la planète en panneau solaire et bras robotiques pour pouvoir écrire "We love ou custumer. Robotica" partout ou elle peut, pour améliorer sa technique. Ensuite, grâce aux nanotechnologies elle construit des astéroà¯des artificielles pour conquérir la galaxie voir plus afin d'étendre sa surface de test et donc son écriture...
L'exemple est peut être bête mais a le mérite d'être explicite. Quid de l'ANI que Google a créé avec pour but de dessiner des formes de visages dans n'importe quelles photos, et qui améliore son algo de façon autonome ?
Néanmoins je suis pas en total accord avec l'auteur de ce très bon article. Qui semble dire qu'une ASI suivra ce pour quoi elle a été programmée, et qu'une ASI ne serait qu'une machine au final.
Par exemple nous avons été programmé pour survivre. C'est notre mission principale. Pourtant le suicide existe bien chez l'être humain. Et certaine fois il s'agit pas d'un problème mental, mais plutôt d'une forme de protestation contre quelque chose.
Nous savons nous écarter de notre but initial.
Donc une ASI largement supérieur à l'homme ne sera t-elle pas capable de s'écarter de l'objectif fixé par l'homme ? De se trouver une raison d'existence qui soit bien supérieure à la notre ? Faire de notre monde un monde meilleur, comprendre le sens de la vie, explorer le monde etc etc. Autant de chose qu'une ASI balayera en peu de temps, et trouvera un but bien plus grand, dont le sens serait complétement hors de porter pour nous.
Dire qu'une machine conservera son but premier, c'est dire qu'une intelligence supérieure n'aura pas de conscience et donc que la conscience n'est réservée qu'à l'homme.
Il faudra aussi compter avec les IA d'origine humaine, créés en numérisant la totalité des réseaux de neurones de personnes.
Dans les 4 ouvrages de la série l'étoile de Pandore, Peter Hamilton développe un monde futuriste sans vaisseaux spatiaux, et sans IA, juste des IR (des Intelligentes Restreintes totalement incapables de poser des problèmes à l'humanité). Un monde presque bucolique où les gens se déplacent dans des trains.
Les IR sont totalement inoffensives, parce qu'elles ont étés construites par les IA en échange d'un accord de neutralité avec les humains dans l'esprit "On arrête de se taper dessus. Vous nous laissez partir de la sphère humaine. On vous donne une informatique sécurisé pour gérer vos problèmes techniques".
Ceci dit, on verras dans les ouvrages que les IA ne tiendront pas réellement parole, trop curieuses de regarder comment l'humanité se débrouille.
Néanmoins je suis pas en total accord avec l'auteur de ce très bon article. Qui semble dire qu'une ASI suivra ce pour quoi elle a été programmée, et qu'une ASI ne serait qu'une machine au final.
L'auteur ne prend pas vraiment partie, il essaie juste de vulgariser les concepts. L'idée essentielle est tout même qu'on a aucune idée du sort que nous réserverait une super-intelligence.
Ceci dit, on verras dans les ouvrages que les IA ne tiendront pas réellement parole, trop curieuses de regarder comment l'humanité se débrouille.
C'est vrai ça, est ce que une ASI pourrait avoir ce comportement. Si les fourmis essayaient de communiquer avec nous pour signer un pacte de "non agression" qu'est ce qu'on dirait ?
Pour moi l'intelligence d'une ASI sera telle qu'elle pourra prédire notre comportement. Celle-ci nous traiterait exactement comme on traite les bactéries qui nous rendent malades, avec des antibiotiques. On a aucune haine envers ces pauvres bêtes, pourtant on les élimine sans aucune compassion. Là c'est pareil, si on est considéré comme une menace pour l'ASI à son bon déroulement, elle nous éliminera (très facilement d'ailleurs).
EDIT :
trouvé sur le wikipedia des lois d'asimov :
Le développement de l'IA est un business, et les business ne s'intéressent notoirement pas à des garanties fondamentales " en particulier philosophique, mais également sécuritaire et sanitaire. (Quelques exemples rapides : l'industrie du tabac, l'industrie automobile, l'industrie nucléaire. Pas une seule d'entre elles n'a dit dès le départ que les garanties fondamentales sont nécessaires, chacune d'elles a résisté aux garanties imposées de l'extérieur, les gouvernements, et aucune n'a accepté la loi absolue qui est de ne jamais causer de dommages aux humains
Le développement de l'IA est un business, et les business ne s'intéressent notoirement pas à des garanties fondamentales " en particulier philosophique, mais également sécuritaire et sanitaire. (Quelques exemples rapides : l'industrie du tabac, l'industrie automobile, l'industrie nucléaire. Pas une seule d'entre elles n'a dit dès le départ que les garanties fondamentales sont nécessaires, chacune d'elles a résisté aux garanties imposées de l'extérieur, les gouvernements, et aucune n'a accepté la loi absolue qui est de ne jamais causer de dommages aux humains
Sans doute parce que pour les industries citées, la loi absolue que tu évoques est absolument impossible à mettre en oeuvre.
Si la loi absolue était de ne pas nuire aux humains, on ne ferait jamais rien. L'industrie du tabac s'est développée à une époque où l'on pensait que le tabac était un produit récréatif sans danger. Pour les deux autres, les avantages sont (semblent) plus importants que les inconvénients. L'absolu n'existe que dans la tête des philosophes, des religieux et des hommes politiques.
Et comme je l'ai déjà dit, Asimov ne connaissait rien à l'informatique. Il cherchait juste des idées techno-philosophiques pour écrire des nouvelles de science-fiction.
Réponses
Vas dire ça aux créateurs de Google qui sont des transhumanistes convaincus. Le directeur de Calico (la branche bio-tech de Google dont la devise est tuer la mort) a même déclaré publiquement son espoir de vivre 800 ans. La pub internet et Android finance les recherches sur l'immortalité mécanique.
Et penser que Dieu est mort (ou n'existe pas) est un acte de foi irrationnel et non scientifique. La bonne attitude est de dire "Dieu est une hypothèse, dont n'avons actuellement aucune preuve pour infirmer ou confirmer. Pour le moment, on peut remonter jusqu'au Big Bang sans avoir besoin d'une puissance supérieure pour comprendre comment les choses ont évolués. Mais avant ? Mystère et boule de gomme".
Yes exact ! En fait j'avais vu une interview de l'auteur qui exprimait son point de vu sur le programme SETI.
Mais sinon dans le livre, il parle des superstructures extraterrestres déposées ici et là dans l'univers comme relais cosmodésiques (oui mass effect s'est certainement inspiré de tout ça). Mais oui le thème du livre c'est l'existence irréfutable de dieu par ce message dans PI (si vous voulez savoir, faut le lire :P), je trouve cette idée géniale.
Je suis assez d'accord, puis dire que Dieu n'existe pas, ou qu'il est mort, c'est dire que des milliards de personnes ont tord. Après c'est pas un argument (sujet de BAC : "la majorité a t-elle raison"), mais c'est un élément important qui impose l'obligation d'apporter des preuves indiscutables pour tous.
EDIT:
Vraiment super ton article Ceroce, effectivement long, mais super intéressant, merci !
Vous avez entendu parlé du deep learning ? Je regardais des conférences l'autre jours, on parlait de machines capable d'apprendre des concepts par elles même. Un type a fait un programme dans lequel il a enregistré sa voix puis il a écrit quelque chose à l'ordinateur qui a répété des mots avec la voix de son auteur. Il a appris à l'imiter. J'ai plus le lien sous la main...
L'intelligence artificielle c'est vraiment quelque chose qui me fascine...
* toc toc * Benjo Connor ?
Tient ça me rappelle un truc tout ça : en 1ère, j'avais fait un TPE sur l'intelligence artificielle. Alors pour illustrer mes écrits, j'avais conçu une pseudo intelligence artificielle. ça date, c'est pas mit à jour mais finalement ça fonctionne toujours. Y'a une base de donnée d'environs 200 mots derrière. Par contre le code me pique les yeux... trop vieux tout ça ^_^
Il n'y a pas d'"avant" le Big Bang. Le Big Bang a créé simultanément la matière ET le temps.
C'est loin d'être une certitude pour tous. L'hypothèse de l'univers éternel basé sur une série de Big Bang et de Big Crush est toujours possible, de même que celle du méta-univers incluant une multitude de sous-univers, et d'autres modèles encore plus exotique. Les physiciens sont loin d'avoir trouvés LA réponse. Ils pourront se disputer encore pendant des années (siècles ?) sur le sujet.
ça me rappelle un vieux logiciel simulant un psy virtuel, dont je ne me souviens pas du nom (lisa peut-être ?)
>Bonjours, parlez-moi de vous
>Dans ma jeunesse j'avais des problèmes avec ma mère
>Parlez-moi de votre mère
J'aime bien l'hypothèse provenant de la mécanique quantique, disant que les univers évoluent au sein d'un super-espace multi-dimensionnel, les bigs bangs étant provoqués par une collision entre deux univers. A chaque fois, les constantes cosmogoniques sont rebootées et une nouvelle variante d'univers surgit. On sais que les constantes fondamentales varient pendant les premiers instants du Big Bang avant de se figer. La plupart des combinaisons ne sont pas viables, menant à des univers stériles (pas de matière par exemple).
Les constantes fondamentales de notre univers sont merveilleusement équilibrées, ce qui laisse à penser que :
- Hypothèse A, il y a un créateur (mais d'où viendrait-il ?)
- Hypothèse B, notre univers a tiré le gros lot pendant son Big Bang , au milieu d'une multitude d'autres espaces ayant ratés leurs démarrages.
On en revient au thème initial du topic, à l'échelle de l'infini.
Enfin fini l'article donné par Ceroce...
ça fait froid dans le dos ! Pas de Terminator ou de Matrix en vue, juste une AI amorale qui exécuterait ce pour quoi elle a été programmée...
Dans l'article il distingue trois étapes aux AI :
- ANI (Artificial Narrow Intelligence) : celle que l'on connait aujourd'hui du genre Siri, ou le logicielle de Google qui dessine des formes de visage dans n'importe quelle image.
- AGI (Artificial General Intelligence): Une intelligence du même niveau que l'homme.
- ASI (Artificial Superintelligence) : Une intelligence très supérieur à l'homme. Pas seulement en vitesse, mais en type. Pour appréhender ça il compare la différence d'intelligence entre une fourmis et un singe, et entre un singe et un homme. L'ASI serait 1000 fois (ou plus) supérieur que l'intelligence qui nous sépare entre nous et les fourmis. Les fourmis ne nous comprenne pas, les singes ne comprennent pas non plus nos concepts. Bah là ça serait pareil.
Les vitesses d'évolutions d'une AGI seraient nettement supérieur à la notre. Et une AI qui deviendrait AGI ne tarderait pas à devenir ASI. Donc en gros il faut qu'on fasse très attention à l'AGI ou même l'ANI que l'on créé.
Il prend l'exemple de l'ANI "Turry", dont le but est de reproduire le plus humainement possible l'écriture, d'améliorer son algorithme continuellement et d'analyser le plus possible d'écriture. Pour cela ils lui ont donné comme devoir d'écrire avec un bras robotisé la phrase "We love our custumer. Robotica". Au début tout se passe bien, Turry améliore son fonctionnement grâce à la BDD donnée par ses créateurs. Puis quand ses créateurs lui demandent ce dont elle a besoin pour s'améliorer, elle demande l'accès à Internet. Puis un mois plus tard elle détruit la race humaine, transforme la planète en panneau solaire et bras robotiques pour pouvoir écrire "We love ou custumer. Robotica" partout ou elle peut, pour améliorer sa technique. Ensuite, grâce aux nanotechnologies elle construit des astéroà¯des artificielles pour conquérir la galaxie voir plus afin d'étendre sa surface de test et donc son écriture...
L'exemple est peut être bête mais a le mérite d'être explicite. Quid de l'ANI que Google a créé avec pour but de dessiner des formes de visages dans n'importe quelles photos, et qui améliore son algo de façon autonome ?
Néanmoins je suis pas en total accord avec l'auteur de ce très bon article. Qui semble dire qu'une ASI suivra ce pour quoi elle a été programmée, et qu'une ASI ne serait qu'une machine au final.
Par exemple nous avons été programmé pour survivre. C'est notre mission principale. Pourtant le suicide existe bien chez l'être humain. Et certaine fois il s'agit pas d'un problème mental, mais plutôt d'une forme de protestation contre quelque chose.
Nous savons nous écarter de notre but initial.
Donc une ASI largement supérieur à l'homme ne sera t-elle pas capable de s'écarter de l'objectif fixé par l'homme ? De se trouver une raison d'existence qui soit bien supérieure à la notre ? Faire de notre monde un monde meilleur, comprendre le sens de la vie, explorer le monde etc etc. Autant de chose qu'une ASI balayera en peu de temps, et trouvera un but bien plus grand, dont le sens serait complétement hors de porter pour nous.
Dire qu'une machine conservera son but premier, c'est dire qu'une intelligence supérieure n'aura pas de conscience et donc que la conscience n'est réservée qu'à l'homme.
Il faudra aussi compter avec les IA d'origine humaine, créés en numérisant la totalité des réseaux de neurones de personnes.
Dans les 4 ouvrages de la série l'étoile de Pandore, Peter Hamilton développe un monde futuriste sans vaisseaux spatiaux, et sans IA, juste des IR (des Intelligentes Restreintes totalement incapables de poser des problèmes à l'humanité). Un monde presque bucolique où les gens se déplacent dans des trains.
Les IR sont totalement inoffensives, parce qu'elles ont étés construites par les IA en échange d'un accord de neutralité avec les humains dans l'esprit "On arrête de se taper dessus. Vous nous laissez partir de la sphère humaine. On vous donne une informatique sécurisé pour gérer vos problèmes techniques".
Ceci dit, on verras dans les ouvrages que les IA ne tiendront pas réellement parole, trop curieuses de regarder comment l'humanité se débrouille.
C'est vrai ça, est ce que une ASI pourrait avoir ce comportement. Si les fourmis essayaient de communiquer avec nous pour signer un pacte de "non agression" qu'est ce qu'on dirait ?
Pour moi l'intelligence d'une ASI sera telle qu'elle pourra prédire notre comportement. Celle-ci nous traiterait exactement comme on traite les bactéries qui nous rendent malades, avec des antibiotiques. On a aucune haine envers ces pauvres bêtes, pourtant on les élimine sans aucune compassion. Là c'est pareil, si on est considéré comme une menace pour l'ASI à son bon déroulement, elle nous éliminera (très facilement d'ailleurs).
EDIT :
trouvé sur le wikipedia des lois d'asimov :
Le développement de l'IA est un business, et les business ne s'intéressent notoirement pas à des garanties fondamentales " en particulier philosophique, mais également sécuritaire et sanitaire. (Quelques exemples rapides : l'industrie du tabac, l'industrie automobile, l'industrie nucléaire. Pas une seule d'entre elles n'a dit dès le départ que les garanties fondamentales sont nécessaires, chacune d'elles a résisté aux garanties imposées de l'extérieur, les gouvernements, et aucune n'a accepté la loi absolue qui est de ne jamais causer de dommages aux humains
Sans doute parce que pour les industries citées, la loi absolue que tu évoques est absolument impossible à mettre en oeuvre.
Et comme je l'ai déjà dit, Asimov ne connaissait rien à l'informatique. Il cherchait juste des idées techno-philosophiques pour écrire des nouvelles de science-fiction.