@Upok543 Théorie poétique, mais ça impliquerait un rejet de l'IA et de la technologie tellement important que l'Homme se soit détruit lui-même au point qu'il ai disparu un temps de la terre, sans laisser aucune trace, pour être remplacer par une nouvelle espèce d'Homme qui serait de nouveau apparu grâce à la nature ! Très peu probable si tu veux mon avis.
@Nanaki Mais est-ce qu'avant de parler d'IA il ne serait pas nécessaire de définir ce qu'on appelle "intelligence" ? Ca me paraît fondamental ! Je suis d'accord avec toi pour dire que la seule limite de l'IA, c'est celle que l'Homme lui impose.
Je crois que tu surestimes aussi beaucoup la capacité de raisonnement d'une IA (qui n'en a aucune). On est bien loin de pouvoir créer des IA qui ne seraient aussi intelligent ne serait-ce que d'un rat. On créé une IA qui est capable, par exemple, de toujours gagner aux échecs. Ok, mais elle ne peut QUE gagner aux échecs. Disons même conduire une voiture, qui n'est pas si complexe pour une machine. Ce qui nous différencie de l'IA c'est cette capacité d'apprentissage que nous possédons, d'apprentissage non supervisé.
Pour qu'une IA puisse arriver à ce que tu dis, il faudrait qu'elle soit capable d'apprendre de différentes tâches, qui lui permettraient de représenter le monde, de raisonner, de planifier, de prédire, de se rappeler ... Tu ne crois pas que ce qui manque aux machines, aux IA, c'est ce qu'on appelle plus communément le "sens commun", c'est à dire "l'intelligence générale" ou la capacité à apprendre de nouvelles choses, plus simplement ? Tu penses que les IA peuvent acquérir ce "sens commun" ?
Message édité par Ecterion le 18-01-2018 à 09:46:05