Sciences et techniques

l'intelligence artificiel, réfléchissons-y !

  1. Accueil
  2. Forums
  3. loisirs, passions et hobbies : Sciences et techniques
  4. L'intelligence artificiel, réfléchissons-y !
l'intelligence artificiel, réfléchissons-y !
patrickle 04 février 2019 à 12:53

vu que nous avons plusieurs spécialistes de l'IA, on peut donc en débattre. je propose de lancer quelques questions :
- au sujet de cette fameuse IA qui a tenu des propos racistes. le problème est-il que cette IA n'a fait que apprendre à faire une moyenne des pensée exprimées sur le Net Cela voudrait dire que le gros problème n'est pas l'IA (bien qu'on ne pourrait peut-être pas l'appeler IA) mais ce que pensent les gens (c'est ma position, et je m'inquiète de voir peu de gens s'en inquiéter) ou est-ce que l'IA est performante et que donc la conclusion est que dans ce monde, il est 'logique' de devenir raciste ?
- de ce que j'ai appris (corrigez-moi si je me trompe (non Kalimalicia, ne sort pas ton fouet)), une IA est un système, structuré comme des neurones. on l'entraine avec des exemples du problème pour lequel il est conçu et puis il peut résoudre des problèmes similaires tout seul (par exemple : on donnait à un système des images en lui disant si c'était une voiture ou non, afin que le système règle ses paramètres. une fois l'entrainement fait, le système pouvait dire avec quasi-exactitude si une photo représentait une voiture ou pas). finalement, ce genre de système ne fait jamais que ce qu'on lui demande de faire et je trouve cela un peu exagéré d'appeler cela intelligence
- ceci amène un troisième point, repris par une émission que j'avais vu à l'époque. avant de parler d'intelligence artificielle, il faudrait définir ce qu'est l'intelligence, ce qui apparement est loin d'être facile

patrickle 04 février 2019 à 12:58   •  

une quatrième réflexion un peu plus amusante, verra-t-on ce genre de site crée par des IA pour des IA en malaise par rapport à la bêtise humaine ?
pourrait-on imaginer de faire discuter deux IA sur un des chapitres ?
(ah let a personne qui est en réalité une IA déguisée, qu'elle se dénonce...)

Aurelle 04 février 2019 à 14:17   •  

Un sujet qui intéresse beaucoup aussi le profane que je suis, merci Patrick.

Cela me rappelle un entretien récent de Luc Julia sur France Info (dans le cadre de la parution de son livre), qui évoque directement tes second et troisième points : https://www.francetvinfo.fr/replay-radio/nouveau-monde/nouveau-monde-luc-julia-lintelligence-artificielle-nexiste-pas-et-la-voiture-autonome-nexistera-jamais_3140767.html

Didier54le 04 février 2019 à 14:44   •  

ah, très intéressant! j'étais intervenu dans une émission à ce sujet. Justement, je soulevais le problème du mot "intelligence". L'IA que l'on connais actuellement est de l'IA faible, en gros elle n'est pas capable de penser, réfléchir et ressentir la moindre émotion. Il s'agit en faite d'un super système basé sur ce que l'on sait du fonctionnement neuronal ( car on ne sait pas tout ) et qui permet de gérer statistiquement et de manière nouvelle une big base de données! En gros ce n'est que des statistiques! Il y a plusieurs formes d' IA faibles, il y a l'IA faible capable de résoudre un problème grâce à une base de données entrée par l'homme, mais il y a aussi l'IA faible capable d'apprendre par lui même en se faisant des conceptions de plus en plus précises suivant son expérience (nombre de données croissantes) de diverses choses! Par exemple à force de comparer des photos composées de chats, il sera capable de faire la corrélation entre les différentes formes de chats en détectant des formes, couleurs, positions similaires sans jamais que l'homme n'intervienne. Il ne sera pas capable de savoir ce qu'est un chat, mais il en aura la conception très précise! En fait l'IA n'est qu'une imitation de l'intelligence du vivant, mais en aucun cas il ne s'agit d'intelligence comparable à l'homme ou à tout êtres vivants. Le mot intelligence est utilisé surtout d'un point de vue marketing! c'est un mot puissant qui le relie à l'homme. Il effraie et passionne! c'est plus facile à budgéter aussi! Ce mot est choisi aussi car il symbolise l'adaptation dans un environnement, ce que fait l'IA faible. Beaucoup pense que l'IA surpassera l'homme et le détruira! on en est loin! Pour cela il faut développer l'IA forte et la ce n'est pas du tout le même procédé! Pour moi la vraie intelligence est basée sur l'expérience émotive! Si une IA forte voit le jour, cela voudrait dire qu'on a atteint une conception fonctionnaliste et donc cette IA devrait avoir les mêmes considérations que n'importe quels êtres vivants. Ce qui pose le problème du "est ce que l'on doit la craindre ?". Et bien je dirais que si elle a des émotions, de l'empathie, et autres on ne craint rien si on l'éduque correctement, car là, on peut parler d'éducation. Si j'éduque un chien ( ou un enfant lol ) pour qu'il devienne tueur, il tuera, si je l'éduque pour sauver des gens, il sauvera! c'est la même chose pour l'IA forte! Donc oui je pense que le mot "intelligence" est mal utilisé pour l'IA faible 😉

Didier54le 04 février 2019 à 14:51   •  

Ce qui est marrant aussi, c'est de réfléchir à toute la partie morale sur l'IA forte. Pourrions-nous débrancher un système IA forte sans le consentement de cette même IA ? pourrions-nous juger une IA forte ? pourrions nous allez en prison si nous modifions la mémoire ou le code d'une IA forte ? La pauvre IA forte... 😄

Aurelle 04 février 2019 à 15:03   •  

Merci Didier ! 🙂
L'émission dans laquelle tu es intervenu est-elle disponible en ligne ?
Ca m'intéresserait (si ça ne te dérange pas, évidemment) !

Hélas, ils sont quelques-uns à éduquer leurs chiens pour tuer...

Je me pose une autre question, liée pour le coup à la prise de décision et à la responsabilité inhérente.

Supposons que nous soyons dans un cadre médical (mais cela peut tout aussi bien concerner le militaire ou quelque autre domaine sensible).
On entre les symptômes et autres données d'un patient dont on ne parvient pas bien à déterminer le problème.
Une IA, vendue ou réputée comme excellente, établit un diagnostic : maladie M => traitement T.
Mais l'un des médecins a un doute sur ce diagnostic et songe plutôt à une maladie M' (ou a simplement l'intuition qu'il ne s'agit pas de M). Il estime que le traitement T (s'il a raison, mais il n'en est pas absolument sûr), pourrait même nuire gravement au patient.
Problème : il y a urgence.
Que va-t-il se passer ?
Ce médecin va-t-il prendre le risque de ne pas écouter l'IA et oser endosser la responsabilité s'il se plante ?

Je ne doute pas que de telles situations existent déjà, par exemple lorsqu'un médecin n'est pas d'accord avec ses collègues.
Mais cela ne risque-t-il pas d'être pire si une IA est partie prenante dans la prise de décision ?

Didier54le 04 février 2019 à 15:20   •  

Oui l'émission doit être dispo en ligne, mais ils en ont tellement fait que je suis incapable de savoir c'était dans laquelle. C'était une émission BTLV.

Pour ta remarque sur les médecins, il s'agit encore et je pense d'un problème de statistique. Dans tous les cas, la médecine n'est pas une science exacte puisque même sans intelligence artificielle il y a souvent des doutes entre médecins. On va souvent privilégier l'avis du médecin avec le plus de réussite. L'intelligence artificielle a prouvée qu'elle avait un diagnostic bien plus juste, précise et correcte qu'un médecin. Donc pour moi il n'y a pas photo, si je devais me faire soigner, j'accorderai plus d'importance à l'IA, à condition que l'IA ait les mêmes données que les médecins! Il y a des IA qui décèlent des cancers du poumons sur la base de radiographies alors que les médecins spécialisés sont incapables de les voir!

patrickle 04 février 2019 à 16:01   •  

la médecine n'est effectivement pas une science mais un art. moi j'ai parfois tendance à la considérer comme une science humaine.

pour un médecin humain, médecin donne effectivement un diagnostic avec une certaine probabilité qu'il soit bon. c'est d'ailleurs pour cela que l'on demande parfois un deuxième avis. si on prend la dermatologie, les logiciels détectant les maladies de peau donne le bon diagnostic avec une meilleure probabilité que le médecin humain. Ce logiciel n'est pas intelligent ou plus exactement, il est dans le cas de l'IA faible, comme décrit Didier. Dans ce cas-ci, ce logiciel deviendra un outil pour le dermato qui l'aidera à être encore meilleur. l'humain est encore nécessaire pour le dialogue avec le patient, pour l'interaction avec d'autres aspects de la santé ou d'autres aspects encore comme le social ou la psychologie.
un autre cas qui s'est présenté au Etats-Unis, c'est celui des anesthésistes. un hôpital a placé des machines d'anesthésie autonomes dans chaque salle de son quartier opératoire et n'a gardé qu'un seul anesthésiste, comme la loi l'impose. les machines étaient tout à fait fiables et la promesse d'économie tout à fait substantielles. pour ce genre de logiciel, on est à mon avis aussi dans de l'IA faible. l'association des anesthésistes a fait pression avec succès pour que le fabricant retire ces machines.

Kouignamanle 21 mars 2019 à 11:04   •  

ouais effectivement faible l'ia pour pas dire débile. mon employeur a acheter Watson d'ibm; eh ben il ne repond a aucune de mes question.

Kouignamanle 21 mars 2019 à 11:05   •  

pour un investissement a 300 millions, c'est de la connerie pure et simple

patrickle 21 mars 2019 à 11:08   •  

lui as-tu posé la question : "mais au fond, a quoi sers-tu ?" 😄

djnetle 05 septembre 2019 à 23:31   •  

et quelques mois plus tard .....
(bon, je suis apie depuis pas très longtemps, hein !!!! )

je reprends la conversation, car l'IA est un sujet qui m'intéresse depuis très longtemps :/
(et oui, quelle fierté, à 14 ans, d'écrire un programme qui bat ma soeur à puissance 4 !!)

donc, j'avais mis ça de côté pendant près de 20ans ... et depuis qqs années le sujet revient à la mode !
si j'ai bien compris, on appelle intelligence artificielle un programme qui indique si une information (nouvelle) ressemble à une des informations apprises;
on peut même leur faire générer une information nouvelle à partir de celles apprises.
Pour moi cela s'apparente plutôt à de la bêtise artificielle, car on ne fait que reproduire (de façons plus ou moins élaborée) à partir de modèles.

Nos cerveaux sont loin d'être dépassés car ils sont capables de créer à partir de rien !
On pourra commencer à s'inquiéter quand une machine fera de l'humour ... et quand elle réagira à l'humour :)

En relisant le message de @Didier54, je pense qu'on a la même opinion sur l'IA, et oui les émotions ont une importance sur l'apprentissage:
c'est une piste qui sera utilisée si on veut reproduire artificiellement le cerveau humain (ce qui me semble possible en théorie)

Siryackle 06 septembre 2019 à 04:28   •  

oui !! 😉
Très trop souvent oubliées les émotions dans le processus d'apprentissage...
Et même opposée l'une contre l'autre.... (émotion contre intelligence), absurde !!

Autant dire qu'on en est loin d'une IA qui "penserait avec son coeur" !! 😄 😄 😄

Merlinle 06 septembre 2019 à 08:09   •  

L'IA n'en est qu'à ses balbutiements. Aujourd'hui elle sert surtout à y voir clair dans des masses de données qu'un cerveau humain mettrait beaucoup trop de temps à éplucher pour que ce soit efficace, mais je parie que dès qu'on aura mis au point les ordinateurs quantiques, elle va se développer bien davantage.

Ce qui m'inquiète aujourd'hui sont certaines utilisations des IA actuelles : pilotage de drones militaires, reconnaissance faciale ou même les véhicules autonomes... Mais on a aussi trouvé des applications formidables en médecine, en détection des risques, pour aider à des découvertes scientifiques... Je crois que c'est au travers des applications que l'on peut juger de l'intérêt (ou non) d'une technologie.

Fropople 06 septembre 2019 à 09:49   •  

Assez d'accord avec toi @Merlin
En soit on ne peut juger de si l'IA est une bonne ou une mauvaise chose, on ne peut qu'approuver ou désapprouver l'usage qui en est fait.
Comme la grande majorité des avancées : l'argent, le nucléaire, l'automatisation, l'IA...

Ces avancés permettent d'améliorer certaines choses, mais parfois au prix d'autres choses ou a des fins malveillante.
Une bouteille e verre peut aussi bien servir de récipient pour contenir une boisson, que d'une arme dans un bar une fois ébréché car trop éméché...
L'usage d'une chose n'est pas la chose en elle même

InconvenientTruthle 06 septembre 2019 à 12:57   •  

Je rejoins @Merlin et @Fropop.

Cela me rappelle une discussion avec je ne sais plus qui où on évoquait les questions : "comment coder l'éthique ? " ou encore, pour prendre l'exemple que @Merlin cite, à savoir les voitures autonomes, les problèmes qu'engendrerait le "codage" d'un choix du style, un accident se produit devant la voiture autonome, et l'IA a le choix entre écraser une femme enceinte et un enfant... ou bien encore le choix entre crasher la voiture plutôt que d'écraser les piétons puisque de toute façon, au vu des conditions, la probabilité que les occupants de la voiture s'en sortent n'est que de 0,1 %...

Assez vertigineux comme questionnement humain... mais aussi "juridique" : qui serait "responsable" ? Le développeur qui a codé, la firme qui emploie le développeur, le conducteur qui aurait dû tout de même avoir les mains sur le volant pour réagir dans l'hypothèse qu'un problème survienne alors que la probabilité qu'il survienne n'était "que" de 0,1 %...

Au salon Vivatech cette année, j'ai vu un logiciel de reconnaissance, non pas faciale, mais d'habits : cela permettait d'ouvrir ou non la porte du chantier, en fonction du port du casque et d'autres équipements. C'était "simple" comme idée mais une bonne idée je trouve.

Je pense que l'un des "soucis" majeurs est de reposer sur les "statistiques". Pour coder tout ça, on est obligé d'utiliser les mathématiques mais cela pose la question de la valeur, d'une vie par exemple, en termes de variable quantitative.

Même si cela est assez "éloigné, cela me fait penser au film "Sully", qui relate l'amerrissage d'un avion de ligne sur l'Hudson. En "bougeant" les chiffres, on peut faire pas mal de choses : au final, il se retrouve accusé d'avoir pris une mauvaise décision sur la base de simulations qui, de par leur nature "scientifique", sont censées faire foi... Sauf que comme toute simulation, il faut lui rentrer des "chiffres" et il n'est pas toujours facile d'y intégrer "numériquement" le facteur "humain"...
Et se pose toujours la question de la "barre" : à quel niveau estime-t-on qu'on ne doit plus faire ci mais ça... Avec le traditionnel "et si ?" qui vient ensuite... Et si on était dans le cas sur 100 où...

Merlinle 06 septembre 2019 à 14:19   •  

Hé oui, comme le disait une maxime geek des années 90, "un ordinateur, si tu lui donnes de la merde, il ne t'en sortira pas des ortolans" ;)

Fropople 06 septembre 2019 à 15:57   •  

Je connais la version moderne un poil plus directe : "shit in, shit out" XD

Annele 14 septembre 2019 à 10:16   •  

Pardon, pas de réflexion personnelle, tout à un peu été dit, mais pour info https://hal.archives-ouvertes.fr/RJCIA2019/
Ha non, personne n'a évoqué l'IA de compagnie utilisée dans les maisons de retraite. .. révélant une faille dans l'organisation de l'accompagnement et la logique de compensation. J'ai du mal à comprendre pourquoi on ne développe pas plutôt un outillage pour soulager les aides soignantes des travaux pénibles et leur permettre d'avoir du temps et de l'énergie pour tchatcher avec les pensionnaires. ...

Juliette...le 14 septembre 2019 à 10:37   •  

Tu m'étonnes! J'avais jamais entendu parler de ça. Quelle horreur!


Il te faut t'enregistrer sur le site pour participer aux forums.

Rejoins-nous vite !

Alerter les modérateurs

Peux-tu préciser ci-dessous le motif de ton alerte ?