157 passagers et membres de l’équipage qui avaient pris place à bord d’un vol d’Ethiopian Airlines + 189 personnes  dans l'accident de la compagnie indonésienne Lion Air ... Les premiers éléments de l'enquête montrent que les logiciels embarqués seraient à l'origine des crash ...

Il est évident pour toute personne qui s'est un peu penchée sur le sujet que l'IA n'est pas neutre mais présente les biais et autres dérives directement liés aux buts et finalités poursuivis par ses concepteurs. Pourtant, nous ne nous interrogeons pas sur la nécessité de réguler le développement des ces "outils" d'un nouveau genre ... est-ce bien raisonnable ?

les perspectives de profits portés par ces outils justifient elles qu'on laisse faire ?

Qu'en pensez-vous ? comment vous prémunissez-vous des effets pervers de l'utilisation de tels outils ?

est-ce une simple question philosophique ou un choix politique à faire ?

innovation intelligence artificielle philosophie politique
4
2

3 réponses

il y a 5 mois par FredericLibaud

Il semble que ce n'est pas une IA qui est en cause mais, un problème d'informatique lié à des capteurs.

La problématique soulevé sur la fond c'est la commercialisation d'une solution technique pas ou peu mature. Poussée par une stratégie ou volontée marketing forte. En d'autre terme, le business a pris le pouvoir sur la technique pour faire simple !

Cela coûte parfois beaucoup et dans certains cas porte atteinte à la vie humaine. Les responsabilités dans les décisions doivent être établies pour savoir qui sanctionner après-coup si cela s'impose.

3
il y a 5 mois par olivierChaillot

Un logiciel qui gère en place d'un humain, prend des décisions, applique des process, ... ce n'est pas de l'IA ?... certes. Alors qu'est-ce que l'IA ? Je ne voudrait pas que l'on se lance dans une guerre de définitions qui occulterait la question de fond. La problématique ici encore se cache derrière une guerre sémantique où, en vidant les mots de leur sens, nous passons à coté des questions de fond.

Pourtant la problématique est connue et les enjeux ont été posés, décrit, traités dans un débat public (ici) qui me semble s'applique également quand des machine reproduisent des comportements humains (ici du pilotage d'engins volant) ...

la question de l'IA est bien "comment permettre aux humains de garder la main ?" et cette question prend tout son sens dans le cas de ces morts non ?

2
il y a 5 mois par ChristopheFantoni

Dans ces conditions, n'importe quel objet technologique possède aujourd’hui une intelligence artificielle (ou IA), à commencer par votre ordinateur, votre téléphone portable, votre voiture, etc. Une IA, techniquement parlant, ce n'est pas ça.

En général, quand une IA prend une décision, c’est en fonction d’un ensemble de connaissances sensiblement identiques qui forme sa base de données qui est, quelque part, l’une des composantes de son intelligence (comme la mémoire l’est pour nous, êtres humains). Elle croise donc ce qu’elle vient d’apprendre avec ce qu’elle sait déjà. Et si aucune corrélation n’existe, l’information n’est pas traitée comme à son habitude, mais elle est plutôt ignorée, car jugée incorrecte (ou stockée pour un traitement ultérieur si l’IA est une composante d’une solution de machine learning).

En fait, le problème que vous évoquez ressemble à un grand classique des technologies aéronautiques, à savoir la perturbation des informations envoyées par les capteurs de l'avion suite à un surplus d’ondes électromagnétiques (ou EMF, sigle anglais pour ElectroMagnetic Field). En effet, à haute altitude, l’électronique y devient très sensible, car les composants électroniques se fragilisent. Il faut donc passer le plus souvent par des versions militaires de ces composants électroniques (quand ils existent) pour obtenir une résistance accrue. C’est aussi pour cela que l’on demande aux passagers des avions déteindre leurs téléphones portables, voire de les faire passer en « mode avion » (si celui-ci possède l’option) afin de réduire le DAS à son strict minimum.

Je rappelle que le DAS (ou Débit d'Absorption Spécifique) est le débit d’onde électromagnétique absordé par l’être humain. En clair, plus le chiffre est élevé et plus votre objet technologique produit des ondes électromagnétiques. En Europe, celui-ci est très, très réglementé. Or, ce n’est pas absolument pas le cas de tous les pays du monde (ex. : la Chine, l’Afrique, etc.) où il n’est pas rare d’avoir des téléphones portables low cost avec des DAS particulièrement élevés.

3
il y a 5 mois par olivierChaillot

je dois dire que j'ai du mal avec la limite IA / pas IA ! en effet, si je prends ce que tu dis "quand une IA prend une décision, c’est en fonction d’un ensemble de connaissances sensiblement identiques qui forme sa base de données qui est, quelque part, l’une des composantes de son intelligence (comme la mémoire l’est pour nous, êtres humains). Elle croise donc ce qu’elle vient d’apprendre avec ce qu’elle sait déjà" ...

le "truc" qui prend la décision de "planter" l'avion en prenant une décision est bien construit à partir d'une base de donnés des comportements et réactions à avoir selon les situations...

ce "truc" intègre des données qu'elle apprend en temps réel (via des capteurs et autres systèmes de communication) ...

ce "truc" croise ce qu'il vient d'apprendre (données) avec ce qu'il sait déjà (ce que je dois faire en fonction des situations) pour prendre des décision (je fais) ...

mais ce n'est pas de l'IA ...

n'est-on pas entrain de jouer sur les mots ?

la fascination de la technologie nous joue-t-elle des tours ?

ou bien souhaite-t-on rendre le "truc" incompréhensible par le commun des mortels pour que les experts et autres "sachant" prennent le pouvoir sans contrôle démocratique ?

3
il y a 5 mois par ChristopheFantoni

La base de données, c'est par rapport à une même action, et non par rapport à une succession d'actions.

Ainsi, si l'avion se trouve à un endroit X et que la base de données de l'IA sait qu'à cet endroit X il y a habituellement telle ou telle condition météorologique, il va croiser ce qu'il sait à ce qu'il a détecté, et si l'information obtenue n'est pas cohérente à sa connaissance, soit elle est ignorée, soit elle est traitée plus tard (après analyse), soit elle est reportée « ailleurs » (ex : à une tour de contrôle située au sol).

Ce que j’essaye de dire, c’est que la plupart des algorithmes des IA sont surtout basés sur l’analyse heuristique humaine et non sur la logique pure. En  clair : on y introduit assez souvent une notion de doute, propre à l’être humain, afin que l’information analysée ne soit validée qu’après avoir été confirmée par la connaissance (par : par la base de données, voire par l’apprentissage comparatif si l’IA dispose d’une composante de machine learning).

C’est pour cela que je reste persuadé que le problème de cet avion vient d’une perturbation de la réception des informations provenant d’un capteur suite à un surplus d’ondes électromagnétiques. Comme je le disais un peu plus haut, c’est assez classique comme problème technique dans le secteur de l’aéronautique. Pour bien faire, il faudrait bloquer dans les avions les ondes des téléphones portables, mais cela bloquerait aussi celles d’une partie de ses capteurs (qui ne sont pas tous filaires, malheureusement).  

2
il y a 5 mois par olivierChaillot

En gros tu dis que c'est un système expert ... en application de procédures ... et pas de l'IA ... dont acte.

Mais la problématique est-elle réellement très différente en matière de délégation de décision à un "truc" qui réfléchit en lieu et place d'un humain ?

système expert / IA, même combat ?

2
il y a 5 mois par ChristopheFantoni

Aujourd’hui, les IA sont surtout  des organes de contrôle dans les produits dits technologiques. Elles sont là pour confirmer (ou infirmer) les données qu’elles ont à traiter. Leur boulot est donc le plus souvent de convoyer les informations qu’elles ont eues à analyser. Cela peut être à un être humain, ou, en effet, à un programme.

Ensuite, le problème de l’avion est, à mon sens, davantage un problème de comportement des gens qui le prennent. Leur déviance montre qu’ils n’ont pas du tout conscience du risque qu’ils prennent, voire du risque qu’ils font prendre aux autres (ex : laisser son téléphone portable allumé dans un avion). Chacun s’occupant alors de ses « petites affaires ». Et pour cela, on n’a pas vraiment besoin d’aller dans l’aéronautique pour le constater. Dans les voitures, voire dans les autres transports en commun (bus, train, etc.), c’est exactement pareil. Par exemple, combien de personnes fument sur les quais de la gare (alors que c’est interdit depuis la loi Évin) ? Combien de personnes téléphonent en conduisant ?

1
il y a 5 mois par PascalW

Bonsoir

De prime abord, j'ai eu envie de répondre, que les 346 morts de l'IA ne sont rien en regard des décès liés à l'alcool, la pollution ou les chauffards…

Mais au fond ces morts sont à porter sur la liste déjà long de la conquête de l'air, l'Ia n'est sans doute qu'une cause secondaire.

A la question "comment vous prémunissez-vous des effets pervers de l'utilisation de tels outils ?", je répond sans hésitation avec mon humanité, cette petite part totalement irrationnelle, irréfléchis, spontanées qui nous fait faire des justes complètement stupide juste parce que, dans l'instant on en a eu envie.

Tant que les algorithmes n'arriveront pas à reproduire ça, je ne m'inquiète pas : j'aurai toujours la force de couper le courant et de faire mes propres expériences avec ma propre évaluation des risques (basée sur l'instinct).

Il me semble bon que la philosophie s'empare du sujet avant les politiques. Ca nous donne une chance de traiter la question avec réflexion (sinon intelligence) Les politiques sont soumis au double diktat des sondages et de la ligne de leur partie en vue des prochains scrutins. Laissons les statuer sur le rayon de courbure des concombres ou sur leurs indemnités: chacun son métier.

2
il y a 5 mois par olivierChaillot

Une telle attitude ("je répond sans hésitation avec mon humanité, cette petite part totalement irrationnelle, irréfléchis, spontanées qui nous ...") n'est-elle pas la porte ouverte à toutes les dérives ? le "laisser faire" en comptant sur son instinct pour compenser les risques ne constitue-t-il pas une négation de ce qu'est l'humanité, c'est à dire une capacité raisonnée à trouver des solutions pour s'adapter ?

et compter sur les philosophes pour "traiter" le problème n'est-ce pas se défausser du sujet ? surtout quand le débat est déjà public depuis des années et que la question devient aujourd'hui "comment permettre aux humains de garder la main ?" ... aussi sur les commandes de l'avion ...

une société où "l'on" laisse des "experts" statuer en notre nom n'est-elle pas aussi dangereuse qu'une société où l'IA décide pour nous ?

1
il y a 4 mois par EURLLSCONSULTING

"est-ce une simple question philosophique ou un choix politique à faire ?"  Houlala mon Général !

 N'oublions pas que c'est toujours l'être humain qui élabore et met en place de l'I/A....., je ne suis pas certain des priorités des concepteurs... Là, je crains le coté pourri, pervers, mégalo, destructeur de certains, et j'en passe,.... qui desserviraient l'humanité, mais je pense aussi à cette technologie qui pourrait faire avancer la science dans bien des domaines....et là, il me semble qu'on est face à un problème philosophique pour notre devenir ?

2
il y a 4 mois par olivierChaillot

Il est en effet urgent (et important ?) de mener une réflexion philosophique sur la société que nous voulons construire pour y vivre et laisser aux suivants ... de cette réflexion qui doit être partagée découleront les choix politiques que nous devons faire (urgemment ?)

1

Vous aimez Skiller?

Rejoignez la communauté.