Rapports carrefours

 

Carrefours de l'année 2018

           

                                                  Février :    Intelligence artificielle

                                                                   Synthèses vocales

                                                    Juin :       Intelligence artificielle Partie 2

                                                    Septembre Orientations de l'année 18/19 et jeux

 

Liste des carrefours

Avancées médicales et technologiques

Blog

Dictaphone Milestone

Etiquettes et codes

Glossaire informatique

Google et son univers

Intelligence artificielle

Intelligence artificielle 2

Iphones_nouveautés

Localisateurs

Logiciels libres

Localisateurs_nouveautés

Médecine nouveautés

Orientations et jeux

Partage Fichiers

Partage fichiers 2

Piratage informatique

Pratique

Réseaux sociaux

Sauvegarde

Smartvision 2

Synthèses vocales

Téléphonie adaptée

Téléphone vocalisé SmartVision

Tablettes Androïd

Tablettes numériques vocalisées

 

 

COMPTE RENDU DU CNTRS DU 2/12/18

 

THEME : Intelligence artificielle

 

Intelligence

Source : Wikipedia

Définition courante

L'intelligence est l'ensemble des processus retrouvés dans des systèmes, plus ou moins complexes, vivants ou non, qui permettent de comprendre, d'apprendre ou de s'adapter à des situations nouvelles. L'intelligence a été décrite comme une faculté d'adaptation (apprentissage pour s'adapter à l'environnement ou au contraire, faculté de modifier l'environnement pour l'adapter à ses propres besoins). Dans ce sens général, les animaux, les plantes, les outils informatiques (deep learning), font preuve d'une intelligence.

L'intelligence peut être également perçue comme la capacité à traiter l'information pour atteindre des objectifs, l'aptitude à lier des éléments entre eux, à faire preuve de logique, de raisonnement déductif et inductif.

 Définition scientifique

En 1986, plus d'une vingtaine d'experts en psychologie ont été interrogés pour donner une définition de l'intelligence, mais aucun consensus ne s'est dégagé. L'intelligence reste un concept encore mal défini sur le plan scientifique.

 Intelligence humaine (psychologie)

Les débuts de l'étude scientifique de l'intelligence par la psychologie sont généralement attribués à la création du premier test mesurant l'intelligence, l'Échelle métrique d'intelligence . Les mesures de l'intelligence (le quotient intellectuel) sont du domaine de la psychométrie et ont beaucoup bénéficié des avancées de la statistique.

Les tests de QI

Le principe : vous répondez à une série de questions, seul à l’aide d’un QCM, ou en présence d’un psychologue qui commentera vos résultats. Questions de langage, de logique,de mémoire,calcul. Les tests sont divisés en plusieurs parties thématiques. Vos performances (rapidité, justesse , etc.) à chaque question sont alors comparées aux résultats de l’ensemble de la population et peuvent être chronométrés.
Côté tarifs, comptez environ 120 euros pour un test sur plusieurs séances chez un psy. Mais sachez qu’il est possible de le passer en CMP (Centres Médico-Psychologiques) ou CMPP (Centres Médico-Psycho-Pédagogiques). Enfin, les plus curieux qui ne cherchent pas un résultat sérieux trouveront de nombreux tests de QI gratuits sur Internet ou peuvent se procurer des logiciels à des prix intéressants.

Les limites de ce quotient
Le QI est une mesure indirecte, qui classe l’individu par rapport à un ensemble de personnes. L’évaluation n’est donc pas parfaite. Psychologues et experts estiment que ces tests sont fiables à 70 %. Par ailleurs, les tests de QI ne renseignent en aucun cas sur des capacités telles que la créativité ou l’imagination.

 Intelligence artificielle

Source : Wikipedia

Test de Turing

En l'absence d'une définition satisfaisante de l'intelligence, il est difficile de décider si une machine (ou un animal) est ou non intelligent. Alan Turing propose donc de prendre l'homme comme étalon. Ainsi, ce test consiste à mettre en confrontation verbale un humain avec un ordinateur et un autre humain à l’aveugle. Si l’homme qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’homme essaieront d’avoir une apparence sémantique humaine.

 Modèle de l'intelligence comme capacité à simplifier l'information de Kolmogorov

Certains chercheurs se sont inspirés des travaux réalisés en informatique théorique autour de la notion de complexité descriptive, notamment la complexité de Kolmogorov, pour évaluer l'intelligence comme la capacité à décrire ou expliquer quelque chose aussi simplement que cela peut l'être.

En ce sens, l'intelligence serait la capacité à compresser l'information.

C'est en fait souvent le genre d'intelligence qui est implicitement évaluée dans les tests de quotient intellectuel.

 Modèle mathématique d'un agent intelligent

En 2000, Marcus Hutter a proposé un modèle mathématique (informatique fondamentale) d'un agent universellement intelligent, c'est-à-dire d'un système interagissant avec n'importe quel environnement (calculable) de manière optimale. Ce modèle se base d'une part sur le cadre de l'apprentissage par renforcement, où l'agent interagit avec son environnement dans le but de maximiser l'espérance de ses récompenses et punitions, et d'autre part sur l'Induction , qui permet d'attribuer une probabilité à chaque futur possible, en fonction de sa simplicité .

Ce modèle, n'est pas utilisable en pratique pour créer une intelligence artificielle, car c'est un modèle incalculable ; des approximations sont cependant réalisables, mais au prix d'un besoin en ressources (temps de calcul, espace mémoire) immense, et actuellement seulement dans le cas de petits problèmes jouets.


 

Histoire Intelligence artificielle

Source : Site Intelligence artificielle (Travaux personnels encadrés)

Fondation de l'Intelligence Artificielle moderne durant les années 1950 

En 1943, les premiers ordinateurs voient le jour. Ces derniers sont peu performants à cause de l’utilisation du système décimal qui s’avère être complexe.           

En 1950, le mathématicien britannique Alan Turing publie, dans le journal philosophique Mind, un article intitulé Computing Machinery and Intelligence. Considéré par beaucoup comme l'un des fondateurs de l'informatique, Turing est également un des pionniers de l'Intelligence Artificielle.

Dans cet article, il explore le problème de l’intelligence artificielle peu défini jusqu’à lors. Il propose également une expérience connue sous le nom de test de Turing dans une tentative de qualifier une machine de « consciente ».
        
Extrait du journal Mind

De 1955 à 1956, Création de "Logic Theorist", considéré comme le premier programme d'intelligence Artificielle. En effet ce programme permettait de démontrer 38 des 52 théorèmes du manuel scolaire de l'époque appelé « Principa Mathematica ».
Pour ce faire, le programme modélisait chaque problème par un arbre, en tentant de le résoudre en sélectionnant la branche qui donnerait le résultat le plus proche de l'objectif final. Le programme était capable de redémontrer des théorèmes déjà établis par des mathématiciens mais de manière moins sophistiquée.
En
1956, le terme d'Intelligence Artificielle (IA) est officiellement employé . La collaboration d' informaticiens a abouti à la création de concepts réutilisés par la suite notamment dans les réseaux neuronaux ou dans la théorie du calcul.
 En
1958, Création du langage informatique LISP (mot qui a été forgé à partir de l’anglais « list processing ») qui permet de faciliter la programmation d’IA. La popularité de son utilisation provient de la simplicité de sa syntaxe : les notations sont préenregistrées  permettant alors un gain de temps considérable. Les programmeurs ne doivent enfin plus passer des nuits blanches devant leur ordinateur pour créer leur programme.
 En
1959,  Elaboration du GPR (General Problem Resolver )  capable de résoudre tous types de problèmes d’ordre géométriques et mathématiques.
En outre, les améliorations apportées à ce programme dans les années qui ont suivis ont permis de créer le premier programme capable de reproduire la capacité humaine à résoudre des problèmes :ils ne se sont donc pas restreints à créer un modèle purement informatique mais un modèle se rapprochant du système cognitif.
Cependant, le programme n’a pas abouti, à cause de l’ambition colossale du projet.
 
1960-1980 : Les années noires

L'échec du GPR, abandonné en 1967, marquera le début d'une période où l'IA sera vivement critiquée.
 Le rapport ALPAC, publié une année avant l’abandon du GPR, sera le facteur déclencheur de ce pessimisme. En effet, le gouvernement américain supprime ses subventions aux laboratoires de traductions automatiques car jugés inefficaces.
En
1972, Hubert Dreyfus, dans son livre What Computers Can't Do se livre à une violente critique des hypothèses formulés par ses prédécesseurs. Dreyfus contredit une à une chacune d’entre elles : par exemple, l’esprit était auparavant considéré comme un mécanisme fonctionnant grâce à un transfert d’informations conditionnées par certaines règles. Dreyfus réfute cette hypothèse en avançant le fait que tout ce que « nous » savons sur le monde ne consiste pas seulement en une masse d’informations mais également en un ensemble de comportements et de sentiments non-descriptibles sous forme de simples informations.

Dreyfus met également en exergue le principal problème de l’IA : l'incapacité à imiter la capacité de l'homme à utiliser le contexte d'un problème pour déterminer le sens des mots et des phrases. De cette façon, Dreyfus prédit que les avancées dans le domaine de l’IA stagneront tant que ce problème ne sera pas résolu.
Même si le "super-optimisme" du début semble disparaître, les tenants de l'IA n'en sont pas moins désespérés.
Ainsi en
1965, Eliza est construit au MIT. Ce système intelligent était capable de dialoguer en anglais en incarnant le rôle d’une psychologue. L’efficacité de ce système n’a pas été à prouver puisque, fait déroutant, des anecdotes montrent que certains patients devenaient de plus en plus dépendants du programme Eliza…
En
1967, le premier programme d'échecs ayant des performances satisfaisantes a été créé par Greenblatt permettant de battre un joueur d’un niveau moyen.
Durant
les années 70, de nombreuses nouvelles méthodes de développement de l'IA sont testées comme en 1971, avec le langage PROLOG . La singularité de ce langage se distingue dans son processus de fonctionnement. Au lieu de définir une suite d’instructions que l’ordinateur doit réaliser, ce langage permet d’utiliser des règles logiques pour situer le problème et par la suite le résoudre.
 L’année
1974 voit l'avènement des premiers systèmes experts, le plus célèbre conçu pour l'aide au diagnostic et au traitement de maladies bactériennes du sang. Son efficacité est telle, qu’en 1979, il sera considéré par le Journal of American Medical Assoc comme aussi bon que les experts médicaux.
De 1980 à Aujourd'hui : Accélération du mouvement

 L'efficacité prouvée des systèmes experts entraîne l'augmentation des ventes de matériels utilisant ce système. L'IA commence à se démocratiser pour apparaître dans les grandes firmes (Boeing, General Motors, etc).
De plus, de nouvelles branches de l'IA font leur percée sur le marché, notamment celui de la vision de la machine. Par exemple, des travaux sont réalisés sur l'utilisation d'une caméra reliée à un ordinateur pour améliorer le contrôle qualité (Reconnaissance des formes, etc).
 Durant les années
1980, l'IA est sortie des laboratoires pour montrer ses utilisations possibles dans la vie réelle : c’est une réelle démocratisation de ce principe qui apparait. Ainsi, à chaque utilisation de votre GPS vous utilisez le principe de l’intelligence artificielle !
Face aux détracteurs, les "pro-IA" se défendent : en 1982, Minsky écrit Why People Think Computers Can't, en réponse notamment aux critiques de Dreyfus. Minsky fait alors l’éloge de l’IA en clamant le fait qu’à l’avenir ce ne seront pas seulement des machines traversées par des courants électriques, mais des systèmes autonomes capables de « réellement penser, croire, et tout comprendre » pour reprendre ses propres mots.
 En
1983, le principe de l’apprentissage par renforcement est créé : une pénalité/récompense diminue/augmente la probabilité d’effectuer une action dans une certaine situation.
 Au début des années
1990, pendant la guerre du Golfe, l'investissement des militaires a été conséquent dans le domaine de la recherche en IA notamment pour l’amélioration de systèmes d’aide à la décision et la création de systèmes autonomes (tel que les drones).
 En
1996, Garry Kasparov champion du monde d’échec est battu par le logiciel Deep Blue d’IBM. Cet événement significatif démontre que l’IA est plus performante que l’homme dans certains domaines précis.


En 1999, la « Swarm Intelligence » (en français l'intelligence distribuée) parie que les petits organismes artificiels du futur auront la capacité de créer ensemble une intelligence collective à la manière des fourmis d'aujourd'hui : un nouveau champ de recherche est né !

retour index

 

Compte rendu du CNTRS du 23/02/18.

Synthèses vocales

 

Ce CNTRS dont le thème était de décrypter les indications des synthèses vocales pour pouvoir gérer au mieux ses applications avait attiré une très forte chambrée, puisque presque une vingtaine de personnes étaient présentes autour de la table de l’Atrium.

Après notre tour de table de présentation habituel, nous entrons le sujet avec un bref historique de l’évolution des synthèses vocales. C’est en 1791 que le Baron Von Kempelen eu l’idée de créer une machine reproduisant des sons. Cette machine était constituée d’étages d’instruments reproduisant les différents organes humains concernés. L’auditoire écoute une démonstration de cette machine où on perçoit quelques voyelles.

Une seconde génération de synthèses vocale verra le jour entre 1965 et 1985 dans la reproduction du spectre sonore, c'est-à-dire la fréquence de chaque son. Les sons reproduits donnaient une élocution saccadée, rendue célèbre par les voix de robots entendues dans la filmographie de l’époque.

La grande évolution des synthèses se fera grâce à l’augmentation de la capacité de mémoire des systèmes informatiques, car on va enregistrer pour chaque langue des diphonies, (pour schématiser des syllabes), ainsi une phrase à énoncer est convertie phonétiquement avant d’assembler les différents diphones nécessaires. Nous écoutons les créations de la société Voxygene, spécialiste en la matière, qui arrive à recréer des voix personnalisées. Les voix seront d’autant proches de la réalité, qu’elles maitriseront les 3 composantes intonations, rythme et emphase.

François nous montre une clé USB, fonctionnant avec la reconnaissance vocale.

Nous proposons ensuite un exercice d’écoute et de concentration sur les indications de la synthèse en préambule à notre déchiffrage des éléments sonore. Il s’agit d’écouter les indications sonores de la synthèse vocale pour les procédures les plus utilisées et de choisir parmi deux propositions d’actions celle qui convient le mieux.

Cet exercice a permis de découvrir les différents éléments que nous pouvons aborder lors de notre navigation sur Windows, nous y reviendrons plus en détails par la suite.

Nous précisons que les indications de la synthèse doivent être paramétrées en qualité (choix du synthétiseur, de la voix, du volume et du débit) mais aussi en quantité (en mode écriture : écho clavier par caractère ou par mot, en lecture le rythme ligne ou phrase quelques ponctuations ou plus, choisir une verbosité adaptée à son niveau (c'est-à-dire avoir besoin de plus ou moins d’informations). La perception auditive est fugitive, contrairement au visuel, il nous faut comprendre rapidement le contexte où l’on se trouve pour réagir en conséquence. C’est pourquoi le paramétrage de la synthèse doit être fait avec soin.

Pour être performant, il faut connaître également les différents éléments du système d’exploitation.

Travaillant sur Windows, nous passons en revue les différents objets : la simple notification, le message d’alerte avec bouton de validation, les boites de dialogues simples avec les boutons OUI, NON, ANNULER, les boites de dialogues plus complexes avec zone d’édition, listes déroulantes, cases à cocher, boutons radios, les mêmes boites de dialogues comportant plusieurs onglets, les fenêtres d’application avec les différentes barres et menus ; les fenêtres Windows plus spécifiques (bureau, interface métro, explorateur , panneau de configuration). Il s’agit pour chacun de ceux de bien connaître ses spécificités et de son cadre d’utilisation pour adapter sa navigation. Jaws possède en effet plusieurs curseurs et NVDA plusieurs modes de navigation (focus, document ou objet), il convient de choisir celui qui sera le plus approprié.

Cette partie, somme toute très théorique demandait un débouché pratique, c’est pourquoi un autre CNTRS a été programmé où les participants, grâce aux seules indications de la synthèse vocale devront corriger un texte, l’enregistrer, créer un répertoire et déplacer ce document dans ce dernier.

 

retour index

 

Carrefour Intelligence artificielle

Deuxième partie

 

 

Sommaire

 

Audio : Deux minutes pour comprendre l'intelligence artificielle

https://www.youtube.com/watch?v=8jQKRyZepJ0

Approche de l'intelligence artificielle

Applications de l'intelligence artificielle


 

Audio : 5 trucs étonnants sur l'Intelligence artificielle

https://www.youtube.com/watch?v=If6u8as-npQ


 

Risques de l'Intelligence artificielle

  




Approche

Ordinateurs

 

Les ordinateurs sont devenus de plus en plus puissants, mais ils ne permettent pas de toujours résoudre tous les problèmes.

La matériel n'est peut être pas en cause. C'est le logiciel qu'il faut améliorer.

Logiciels

 

La construction de logiciels s'appuie sur plusieurs approches:

 

 

     

 

 





TROIS MÉTHODES

 

Une approche algorithmique

 

 

Elle nécessite l’écriture du processus à suivre pour résoudre le problème puis sa transcription en un programme. Lorsque le problème est complexe, ce peut être une étape coûteuse ou impossible.

D’autre part, les ordinateurs sont des machines complètement logiques qui suivent à la lettre chacune des instructions du programme. C’est un avantage lorsque tous les cas ont été prévus à l’avance par le développeur de l'algorithmique.

 

 

Systèmes experts

 

 

La seconde approche par possible est celle de l’intelligence artificielle (IA), avec pour application la plus connue les systèmes experts.

Voir  Raisonnement par système expert

 

Ici, la résolution du problème s'appuie sur un ensemble de règles données par l’expert humain du domaine.

Il n’en demeure pas moins que toutes les règles doivent avoir été exprimées préalablement au traitement, et que le programme demeure binaire dans son exécution. Les cas qui n’ont pas été prévus par l’expert ne seront pas correctement traités.

L’introduction de la logique floue ne change pas la nature des limitations d’emploi du programme: l'exécution reste totalement déterministe.

 

 

Alors, comment aller plus loin?

 

L’approche basée sur la connaissance s'applique là où la modélisation de la connaissance est possible, sous forme de règles, par exemple:

 

 

Pour les sciences "exactes"

      l'électronique,

      la mécanique,

      la physique,

      etc.

La connaissance y est explicite.

 

 

Et non les sciences dites "humaines"

      la médecine,

      la psychologie,

      la philosophie,

      etc.

La connaissance y est empirique.

 

Les réseaux neuroniques

 

Les deux approches indiquées ne suffisent pas pour

    de la reconnaissance de formes,

    du diagnostic,

    du contrôle moteur,

    de la traduction automatique,

    de la compréhension du langage,

    etc.

 

Pour cette troisième approche, on cherche à s’inspirer du traitement de l'information effectué par le cerveau.

En effet, la structure du système nerveux, les mécanismes mentaux, les processus neurophysiologiques, l'architecture du cerveau sont à la base du développement d’un comportement intelligent.

Les réseaux de neurones artificiels tentent de reproduire ce comportement.

 

       

 

 




TROIS MÉTHODES

Approche avec l'exemple du jeu de dames

Niveaux

Trois niveaux possibles de " raisonnement "
ou plutôt: trois méthodes utilisées en intelligence artificielle

 

ALGORITHME

 

Programmation impérative

 

Avant chaque mouvement de pièce, exploration de tous les cas possibles. On peut, au prix d'une certaine complexité, y ajouter des tests pour éviter d'explorer des cas de figures très probablement perdants.

Le but étant de diminuer le nombre des calculs qui sont trop nombreux pour être calculés en un temps raisonnable. C'est encore pire aux échecs comparés aux dames.

>>> Suite

 

 

EXPERT

 

Programmation déclarative ou

logique

 

Dans une base de connaissances, on pourrait enregistrer

un grand nombre de parties connues.

Si le système reconnaît une de ces parties, il joue les coups enregistrés.

On voit bien ici que l'algorithme déroule systématiquement l'exploration de tous les coups permis.

 

Avec le système expert, comme son nom l'indique, une bonne dose de connaissances du jeu a été introduite.

Ça n'est plus une simple mécanique en action, mais l'utilisation de règles de déduction basées sur la forte connaissance des spécialistes humains.

>>> Suite

 

 

NEURONIQUE

 

Programmation fonctionnelle

 

Apprentissage en jouant des parties et en tentant de mémoriser les différences entre-elles.

Trouver les caractéristiques de chacune.

La machine se bonifie à chaque partie

 

L'homme en face ne sait pas très bien ce que la machine mémorise pour arriver au résultat. Mais ça marche!

 

Aucune expertise n'est apportée. Sinon par mimétisme du joueur en face de la machine.

Et encore! On a conçu des machines neuroniques qui jouaient entre elles. Un programme de sélection récompensait les plus fortes et éliminaient les plus faibles. Par auto-adaptation restait une seule machine qui s'est révélée très performante.

 

Voir l'exemple des échecs avec l'évolution des programmes Deep Blue (1996 – Classique)) et AlphaZero (2017 – Apprentissage profond).

>>> Suite

 

Conclusion

 

Les trois manières de trouver une solution sont très différentes et s'appliquent à des cas d'application spécifiques. Elles sont complémentaires.

     

 

Machine learning


Le Machine Learning est un sous-ensemble de l'IA. Les réseaux neuroniques sont une des technologies de base.

Arthur Samuel en 1959 en fut le pionnier et il définit le machine learning comme le champ d’étude qui donne aux ordinateurs la capacité d’apprendre sans être explicitement programmés à apprendre.

La qualité des prédictions des algorithmes s’améliore avec l’expérience.

 

 

 

 




Démarches

DESCENDANTE

ASCENDANTE

    Les robots ou automates programmés pour faire quelque chose ne font que ce qu'on leur a injecté comme instruction.

    "Insectes" de Brooks qui se débrouillent par essais et erreurs; par apprentissage et, sélection des plus adaptés.

    Ils reflètent les idées et la logique des humains.

    Ils peuvent donner naissance presque sûrement à de l'inattendu.

    L'école descendante soutient que l'esprit est comme un programme d'une immense complexité dans un ordinateur

    Hopfield pense que l'intelligence pourrait naître de la théorie quantique d'atomes stupides sans aucun programme d'aucune sorte.

    Sa théorie: tout comme un objet quantique minimise son énergie, un circuit de réseau de neurones, lui aussi, doit minimiser son énergie.

    Turing, avec sa machine, a saisi l'essence mathématique de la machine à calculer universelle.

    Hopfield a découvert l'une des lois universelles des réseaux de neurones.

 

Applications intelligence artificielle

Source : TPE sur l'intelligence artificielle

Applications actuelles

Les systèmes experts : Comme nous l’avons expliqué préalablement, les systèmes experts sont des systèmes d’aide à la décision qui se basent sur des règles bien précises. Son domaine d’action est limité mais c’est ce qui fait son efficacité.

La représentation des connaissances : C’est l’un des secteurs les plus importants de la recherche en IA, il est chargé de représenter les données de façon claire nette et précise en utilisant des symboles.

La reconnaissance vocale : Même si les progrès sont lents, les résultats sont très impressionnants et très encourageants. On n’en est pas encore au point de reconnaître parfaitement les paroles d’un individu quelconque car cela requiert beaucoup d’informations extra-langagières comme le contexte dans lequel les paroles ont étés prononcées.


La reconnaissance écrite : Contrairement aux apparences, la reconnaissance dactylographique est un problème assez complexe bien que certains logiciels fournissent des résultats plus que satisfaisants L’écriture manuscrite (la mienne par exemple) pose quant à elle un problème encore plus sérieux dans la mesure que son interprétation pose parfois à l’homme un problème insoluble. Ainsi que les captchas, vous savez ces codes visuels.

La reconnaissance des visages : Ce type de logiciels a longtemps considéré comme le plus difficile à élaborer, cependant, les réseaux neuronaux offrent des résultats intéressants.
Le correcteur orthographique : Cet outil est lui aussi une œuvre de l’IA et je remercie son créateur qui m’a évité de nombreuses fautes ! Bien utile pour éviter de faillir (trop souvent) à la langue française !
Le traitement du langage : Avant de résumer ou de traduire un texte, il faut préalablement le comprendre. Un logiciel aura compris un texte quand il sera capable de le représenter sous une forme indépendante de la langue dans laquelle il a été écrit. Bien que cette tâche soit très difficile, de nombreux progrès ont été réalisés.
La résolution des problèmes : Les jeux donnent une bonne image de ce domaine : le champion du monde de Backgammon est un programme depuis quelques années déjà et cela sera vraisemblablement aussi le cas pour le jeu d'échecs dans peu de temps. Le jeu de Go résiste beaucoup plus aux efforts des programmeurs de jeux.

  Les chatterbotsCes chatterbots ("agents conversationnels" en français) sont des programmes dont le but est de fournir un dialogue digne d’un humain. Ce type d’IA a été particulièrement émulé par le test de Turing. Ainsi certains bots donnent l’impression d’un dialogue censé, convivial, naturel et sans trahir sa nature mécanique !L’un des premiers chatterbots est un psychothérapeute du nom d’ELIZA. Elle commençait par poser une question neutre (Bonjour. Pourquoi venez-vous me voir ?) à la personne testée, puis analysait à chaque fois la réponse pour tenter de reposer une question en relation avec celle-ci. Si une question lui était posée, elle demandait pourquoi on lui posait la question. Si une phrase contenait le mot « ordinateur », elle demandait : « Dites-vous cela parce que je suis un ordinateur » ? 

Exemple de conversation avec le programme Eliza

Depuis la naissance d'internet, de nombreux entreprises de marketing se sont intéressés à cet outil. Ainsi, si vous avez des problèmes auprès de SFR, adressez-vous à Lucie ! La SNCF vous proposera l’aide de Léa. Ce type de chatterbot est donc très présent dans notre quotidien. 

Cependant vous vous inquiétez peut-être de savoir si vous parlez à une machine ou à une véritable personne en chair et en os ? Pour cela il y a des petites astuces : Posez lui un calcul plutôt dur et voyez si la réponse arrive rapidement (dans ce cas l’interlocuteur est une machine) ou non. Vous pouvez aussi faire appel à la perception visuelle, un exemple : « Si je retourne la lettre W, quelle lettre obtiens-je ? »
Cependant, les concepteurs de chatterbots essaient de vous tromper en simulant des fautes de frappe, des erreurs de calcul…

 Les jeux-vidéo

L’industrie des jeux vidéo a accompli de grandes avancées en avant au cours des dernières décennies. Les joueurs se sont habitués à ce que chaque nouveau jeu soit plus complexe et plus intéressant. Pour les développeurs, le défi consiste à aller toujours plus loin, pour créer des jeux sans cesse plus attractifs. Pour répondre aux attentes des joueurs, l’IA pilotée par ordinateur a évolué de nombreuses manières. Pourtant, ce n’est pas chose aisée.

Au niveau le plus élémentaire, l’IA consiste à reproduire le comportement d’autres joueurs ou bien de gérer le comportement des éléments actifs (c’est-à-dire tous les éléments du jeu sur lesquels on peut agir). Le concept de base est que ces comportement soient simulés. En d’autres termes, l’IA des jeux est plus « artificielle » qu’« intelligente ». Deux catégories peuvent alors être différenciées : il peut s’agir d’un système simple conditionné à base de règles, ou complexe, destiné à s’opposer à un joueur (une armée adverse par exemple).

Désormais les recherches en IA visent à créer une vraie intelligence, même si c’est par des moyens artificiels. Des projets comme Kismet du MIT tentent de créer une IA capable d’apprentissage et d’interactions sociales ainsi que d’émotions. Ce serait fort intéressant à intégrer dans des jeux de rôle tels que les Sims !

Dans les jeux actuels, une vraie IA est très loin de ce que l’on attend d’un logiciel ludique. L’IA des jeux n’a nul besoin d’être douée ni de raison ni de conscience (en fait, il faut mieux qu’elle ne le soit pas) ; elle n’a rien d’autre à apprendre au-delà du gameplay (les différentes commandes du jeu). Le vrai objectif de l’IA dans les jeux est de simuler un comportement intelligent et de fournir au joueur un défi crédible afin qu’il soit en mesure de relever le tenant ainsi en haleine.

  • Les robots

Connu par tous, ces dispositifs se doivent d'accomplir des tâches généralement dangereuses (déminage) ou répétitives (travail en usine) pour les humains. La précision accrue de ces machines les ont rendues utiles dans de nombreux domaines. Combiné avec le principe de l'IA, les résultats sont surprenants... Les robots sont soumis à plusieurs règles pour pouvoir être efficaces : ils doivent être capables d’apprendre de leur environnement et de leurs erreurs. Effectivement, s’il n’est pas capable d’apprendre, le robot ne peut être qualifié d’intelligent. 

 Les robots peuvent faire vos tâches ménagères ! Le robot aspirateur Samsung peut nettoyer votre appartement ou votre maison silencieusement !

 Le robot peut également avoir des fins médicales ! Il peut emmètre un diagnostic ! Certains robots ont même été jugés experts en médecine. Il doit cependant être dirigé par un médecin, grâce à cette avancée, des opérations avant impensables sont réalisables ! Particulièrement au niveau des yeux.

 Les robots sont aussi utilisés par les astronautes pour explorer la Lune et Mars, car il est moins dangereux d’envoyer un robot dans l’espace qu’un humain ! Ils sont ainsi commandés depuis la Terre et permettent de ramener des minerais et des photographies de l’espace.

 Ces robots peuvent servir aux ordres de l’armée également ! Voici quelques robots présents dans les forces armées :

Le drone : Initialement un avion de reconnaissance sans pilote, il peut servir à des fins destructrices également et avec une précision remarquable il est également capable de neutraliser les instruments de communication et les radars. On retrouve de ces engins dans l’armée américaine et notamment en Afghanistan.

Le SGR-A1 : Ce robot fait office de sentinelle. Il est utilisé pour surveiller la zone démilitarisée séparant les deux Corées. Le robot est posé au sol et incapable de se déplacer mais il scrute l’horizon grâce à des systèmes de vision très élaborés et même dans la nuit. Étant incapable de différencier si a cible est hostile ou non, il considère toute personne pénétrant dans la zone démilitarisée comme un adversaire. Le robot lui assène donc des tirs de mitrailleuse après sommation (celle-ci étant mobile pour suivre sa cible). Ce robot peut être commandé manuellement ou mis sur un mode automatique.

 AlphaDog LS3 : Robot autonome monté sur des « pattes » ayant pour mission de soulager les militaires des lourdes charges. Il est capable de porter des lourdes charges sur de longues distances.

 Le Talon Maars : Robot mobile doté de chenilles pour se déplacer, de quatre caméras, d’une vision thermique et d’une mitrailleuse. Utilisée par l’armée américaine, son but est de ne pas exposer les soldats à des dangers inutiles. Cette machine est notament capable de monter les escaliers ! Elle est dirigée à distance par un militaire. 

De nombreux robots servent également à exposer les compétences des entreprises, ces robots sont dit d’exhibition, vous pouvez voir dans la rubrique « exemples incroyables » les performances du violoniste de Toyota.

Applications IA : reconnaissance vocale, robots médicaux ou militaires.

Vidéo : http://breakforbuzz.com/10-intelligences-artificielles-vraiment-intelligentes/

Applications futures

  • L'exemple du cyborg

La notion de cyborg appartient de moins en moins à la science-fiction mais de plus en plus à la réalité. Les petits robots qui font votre cuisine, votre ménage, les drones de l’armée, ceux que l’on envoie dans l’espace et surtout les greffes médicales sont de plus en plus présents dans notre quotidien !
Un chercheur anglais s’est implanté une puce dans le bras pour que les portes de son labo s’ouvrent d’elle-même, rien de bien impressionnant me direz-vous « Au supermarché on a la même chose et sans puces. » Mais ces portes sont sécurisées et une voix lui souhaite personnellement la bienvenue.
Le chercheur poursuit l’expérience et cherche à décoder les messages nerveux du corps pour ainsi sensibiliser son PC à son humeur : un geste d’agacement et la machine posera des questions plus explicites. De la fatigue ou de la lassitude et le PC lancera un logiciel pour aider Kévin.
Kévin pense donc arriver à un homme bionique et ainsi acquérir des capacités extra-sensorielles grâce à la technologie qui analyse la fonction du cerveau. Les progrès en nanotechnologie ont donc un bel avenir et ainsi permettre à des nano-agents de soigner les maladies autrement que par prise de médicaments traditionnels. L’évolution en termes de greffe est donc très attendue, même si récemment, une greffe de visage à été rendue possible, peut-on espérer recréer des cellules musculaires ou oculaires et confier leur contrôle à des puces ?
Combien d’entre-vous se sont-ils dit : « Ah si je pouvais mémoriser comme un ordinateur et ressortir tout ça quand je le veux ! » Et bien, ceci serait possible en connectant notre cerveau à un cerveau artificiel construit comme un disque dur d’ordinateur ! Ceci nous permettrait de penser en plusieurs dimensions !

Le plus impressionnant serait de pouvoir communiquer directement par la pensée, « de l’âme pour l’âme » ainsi le jeune Rimbaud avait exprimé son rêve. Ceci serait possible en communiquant à l’aide d’ondes comme les ondes radio ou wi-fi.


 

Risques démesurés à l'avenir



Ce risque est un risque sérieux car sans nous en rendre compte, la machine est déjà au-dessus de l’homme. Si le but premier est de doter la machine de conscience, alors ne se rendra-t-elle pas compte de sa condition ? Alors on peut envisager qu’elle se « rebellera » contre l’homme car elle se sentira exploitée. Les conséquences pourraient être dramatiques.
Ce risque est très faible mais il existe quand même.

Imaginez une IA qui est chargée de gérer les communications, imaginez ensuite qu’elle prenne conscience de la tâche qu’elle réalise, si elle le veut (on retrouve les grands objectifs des chercheurs : doter la machine de conscience et de volonté) elle pourrait paralyser toutes les communications d’un pays, ou pire, inventer des fausses communications semant ainsi un chaos monstre. La portée d’action est très vaste car si elle contrôle les ondes hertziennes, elle peut commander tous les appareils dotés de récepteurs. 

Ce scénario est très improbable cependant il est souvent développé dans des films et livres. De nombreuses œuvres cinématographiques mais aussi littéraires s’inspirent de ces suppositions.
il est donc important de pouvoir neutraliser ces machines, en leur coupant leur alimentation énergétique par exemple. Ou en les obligeant à suivre des règles très simples pour les empêcher de nuire à l’homme.
Pour prévenir ces risques,
Isaac Asimov a énoncé des lois : 


     · Première Loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger.

       · Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi
 ·
Troisième Loi : Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la Première ou la Deuxième Loi.
       ·
Il ajoute ensuite une loi 0 : "Un robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit blessée." 

Isaac espère ainsi éviter les bavures qui peuvent être commises en élaborant un robot dirigé par une IA. Cependant il en évoque aussi les limites dans ses livres : Un robot laisserait-il un homme fumer une cigarette ?

Cependant, l’homme a lui-même pervertis la machine en créant des virus et des logiciels malveillants rendant ainsi les machines nuisibles à son utilisateur. Ceci comporte un danger important dans la mesure où les programmes sont de plus en plus sophistiqués et ont même la capacité de se reproduire ! Ils pourraient donc devenir très nombreux et incontrôlables par son créateur et se propager par Internet. 

retour index

 

COMPTE RENDU DU CNTRS DU 28 SEPTEMBRE 2018.

 

Ce CNTRS était le premier de la saison 2018-2019, il avait pour but de présenter les nouvelles orientations qui devraient couvrir cette présente saison. Pour l’occasion, un repas convivial était prévu à midi pour fêter cette Rentrée. Une dizaine de personnes était présentes, tous des fidèles.

La première annonce était un secret de polichinelle : la retraite au bout de 17 ans du permanent salarié du club et si je prends avec plaisir cette moindre activité, je précise rester, en tant que bénévole, 2 jours par semaine : Bruno, le mardi et Alfred, le vendredi compléteront le trio de responsables. On détaille ensuite l’arrivée de François comme responsable de la maintenance le mercredi, que le magasin ouvrant ses portes, notre activité de pratique des nouvelles technologies se trouvera renforcée, assurée par Patou et Alfred.

Notre lutte contre les nuisances sonores continue avec la mise en service, pour chaque poste fixe de casques micro efficaces et confortables.

Pour les orientations pédagogiques, les chemins tracés précédemment sont toujours d’actualité avec une volonté de préconiser une configuration technique opérationnelle rapidement et sans trop de couts supplémentaires toujours avec NVDA, version 17.3 et l’utilisation de la loupe Windows et des logiciels libres tels que Libre Office.

La formation à l’autonomie doit être complétée en 2019 par une formation professionnelle, les plaquettes d’information sur cette voie seront très bientôt disponibles, elles sont en cours d’impression. Notre prochaine étape sera d’en diffuser largement le contenu aux différents acteurs concernés.

Et c’est dans cette optique que situe notre souci d’étalonner la formation dispensée, vue plus haut.

Notre CNTRS se poursuivit avec un quizz qui a permis de réviser les notions de cours essentielles ou de compléter ses connaissances en glossaire ou histoire de l’informatique.

Deux équipes furent constituées sous la houlette de Bruno et d’Alfred. L’équipe de Bruno se détacha rapidement et fit cavalier seul, bien aidé par le hasard qui lui attribua bon nombre de questions faciles, ce qui lui d’être beau joueur en accordant une question simple aux équipiers d’Alfred qui répondit de façon exacte et sur la lancée enchaina victorieusement en donnant très précisément les procédures demandées lors du questionnaire. L’équipe d’Alfred gagna en profitant de la chute de l’équipe adverse sur une question difficile, concernant Windows 1.0, vous connaissez sa date de lancement ?

Le jeu prit fin, faute de temps, et les épreuves pratiques qui n’ont pas été tirées au sort, seront gardées pour une prochaine édition

retour index