Rapports carrefours

 

Carrefours de l'année 2018

           

                                                  Février :    Intelligence artificielle

                                                                   Synthèses vocales

                                                  

 

Liste des carrefours

Avancées médicales et technologiques

Blog

Dictaphone Milestone

Etiquettes et codes

Glossaire informatique

Google et son univers

Intelligence artificielle

Iphones_nouveautés

Localisateurs

Logiciels libres

Localisateurs_nouveautés

Médecine nouveautés

Partage Fichiers

Partage fichiers 2

Piratage informatique

Pratique

Réseaux sociaux

Sauvegarde

Smartvision 2

Synthèses vocales

Téléphonie adaptée

Téléphone vocalisé SmartVision

Tablettes Androïd

Tablettes numériques vocalisées

 

 

COMPTE RENDU DU CNTRS DU 2/12/18

 

THEME : Intelligence artificielle

 

Intelligence

Source : Wikipedia

Définition courante

L'intelligence est l'ensemble des processus retrouvés dans des systèmes, plus ou moins complexes, vivants ou non, qui permettent de comprendre, d'apprendre ou de s'adapter à des situations nouvelles. L'intelligence a été décrite comme une faculté d'adaptation (apprentissage pour s'adapter à l'environnement ou au contraire, faculté de modifier l'environnement pour l'adapter à ses propres besoins). Dans ce sens général, les animaux, les plantes, les outils informatiques (deep learning), font preuve d'une intelligence.

L'intelligence peut être également perçue comme la capacité à traiter l'information pour atteindre des objectifs, l'aptitude à lier des éléments entre eux, à faire preuve de logique, de raisonnement déductif et inductif.

 Définition scientifique

En 1986, plus d'une vingtaine d'experts en psychologie ont été interrogés pour donner une définition de l'intelligence, mais aucun consensus ne s'est dégagé. L'intelligence reste un concept encore mal défini sur le plan scientifique.

 Intelligence humaine (psychologie)

Les débuts de l'étude scientifique de l'intelligence par la psychologie sont généralement attribués à la création du premier test mesurant l'intelligence, l'Échelle métrique d'intelligence . Les mesures de l'intelligence (le quotient intellectuel) sont du domaine de la psychométrie et ont beaucoup bénéficié des avancées de la statistique.

Les tests de QI

Le principe : vous répondez à une série de questions, seul à l’aide d’un QCM, ou en présence d’un psychologue qui commentera vos résultats. Questions de langage, de logique,de mémoire,calcul. Les tests sont divisés en plusieurs parties thématiques. Vos performances (rapidité, justesse , etc.) à chaque question sont alors comparées aux résultats de l’ensemble de la population et peuvent être chronométrés.
Côté tarifs, comptez environ 120 euros pour un test sur plusieurs séances chez un psy. Mais sachez qu’il est possible de le passer en CMP (Centres Médico-Psychologiques) ou CMPP (Centres Médico-Psycho-Pédagogiques). Enfin, les plus curieux qui ne cherchent pas un résultat sérieux trouveront de nombreux tests de QI gratuits sur Internet ou peuvent se procurer des logiciels à des prix intéressants.

Les limites de ce quotient
Le QI est une mesure indirecte, qui classe l’individu par rapport à un ensemble de personnes. L’évaluation n’est donc pas parfaite. Psychologues et experts estiment que ces tests sont fiables à 70 %. Par ailleurs, les tests de QI ne renseignent en aucun cas sur des capacités telles que la créativité ou l’imagination.

 Intelligence artificielle

Source : Wikipedia

Test de Turing

En l'absence d'une définition satisfaisante de l'intelligence, il est difficile de décider si une machine (ou un animal) est ou non intelligent. Alan Turing propose donc de prendre l'homme comme étalon. Ainsi, ce test consiste à mettre en confrontation verbale un humain avec un ordinateur et un autre humain à l’aveugle. Si l’homme qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’homme essaieront d’avoir une apparence sémantique humaine.

 Modèle de l'intelligence comme capacité à simplifier l'information de Kolmogorov

Certains chercheurs se sont inspirés des travaux réalisés en informatique théorique autour de la notion de complexité descriptive, notamment la complexité de Kolmogorov, pour évaluer l'intelligence comme la capacité à décrire ou expliquer quelque chose aussi simplement que cela peut l'être.

En ce sens, l'intelligence serait la capacité à compresser l'information.

C'est en fait souvent le genre d'intelligence qui est implicitement évaluée dans les tests de quotient intellectuel.

 Modèle mathématique d'un agent intelligent

En 2000, Marcus Hutter a proposé un modèle mathématique (informatique fondamentale) d'un agent universellement intelligent, c'est-à-dire d'un système interagissant avec n'importe quel environnement (calculable) de manière optimale. Ce modèle se base d'une part sur le cadre de l'apprentissage par renforcement, où l'agent interagit avec son environnement dans le but de maximiser l'espérance de ses récompenses et punitions, et d'autre part sur l'Induction , qui permet d'attribuer une probabilité à chaque futur possible, en fonction de sa simplicité .

Ce modèle, n'est pas utilisable en pratique pour créer une intelligence artificielle, car c'est un modèle incalculable ; des approximations sont cependant réalisables, mais au prix d'un besoin en ressources (temps de calcul, espace mémoire) immense, et actuellement seulement dans le cas de petits problèmes jouets.


 

Histoire Intelligence artificielle

Source : Site Intelligence artificielle (Travaux personnels encadrés)

Fondation de l'Intelligence Artificielle moderne durant les années 1950 

En 1943, les premiers ordinateurs voient le jour. Ces derniers sont peu performants à cause de l’utilisation du système décimal qui s’avère être complexe.           

En 1950, le mathématicien britannique Alan Turing publie, dans le journal philosophique Mind, un article intitulé Computing Machinery and Intelligence. Considéré par beaucoup comme l'un des fondateurs de l'informatique, Turing est également un des pionniers de l'Intelligence Artificielle.

Dans cet article, il explore le problème de l’intelligence artificielle peu défini jusqu’à lors. Il propose également une expérience connue sous le nom de test de Turing dans une tentative de qualifier une machine de « consciente ».
        
Extrait du journal Mind

De 1955 à 1956, Création de "Logic Theorist", considéré comme le premier programme d'intelligence Artificielle. En effet ce programme permettait de démontrer 38 des 52 théorèmes du manuel scolaire de l'époque appelé « Principa Mathematica ».
Pour ce faire, le programme modélisait chaque problème par un arbre, en tentant de le résoudre en sélectionnant la branche qui donnerait le résultat le plus proche de l'objectif final. Le programme était capable de redémontrer des théorèmes déjà établis par des mathématiciens mais de manière moins sophistiquée.
En
1956, le terme d'Intelligence Artificielle (IA) est officiellement employé . La collaboration d' informaticiens a abouti à la création de concepts réutilisés par la suite notamment dans les réseaux neuronaux ou dans la théorie du calcul.
 En
1958, Création du langage informatique LISP (mot qui a été forgé à partir de l’anglais « list processing ») qui permet de faciliter la programmation d’IA. La popularité de son utilisation provient de la simplicité de sa syntaxe : les notations sont préenregistrées  permettant alors un gain de temps considérable. Les programmeurs ne doivent enfin plus passer des nuits blanches devant leur ordinateur pour créer leur programme.
 En
1959,  Elaboration du GPR (General Problem Resolver )  capable de résoudre tous types de problèmes d’ordre géométriques et mathématiques.
En outre, les améliorations apportées à ce programme dans les années qui ont suivis ont permis de créer le premier programme capable de reproduire la capacité humaine à résoudre des problèmes :ils ne se sont donc pas restreints à créer un modèle purement informatique mais un modèle se rapprochant du système cognitif.
Cependant, le programme n’a pas abouti, à cause de l’ambition colossale du projet.
 
1960-1980 : Les années noires

L'échec du GPR, abandonné en 1967, marquera le début d'une période où l'IA sera vivement critiquée.
 Le rapport ALPAC, publié une année avant l’abandon du GPR, sera le facteur déclencheur de ce pessimisme. En effet, le gouvernement américain supprime ses subventions aux laboratoires de traductions automatiques car jugés inefficaces.
En
1972, Hubert Dreyfus, dans son livre What Computers Can't Do se livre à une violente critique des hypothèses formulés par ses prédécesseurs. Dreyfus contredit une à une chacune d’entre elles : par exemple, l’esprit était auparavant considéré comme un mécanisme fonctionnant grâce à un transfert d’informations conditionnées par certaines règles. Dreyfus réfute cette hypothèse en avançant le fait que tout ce que « nous » savons sur le monde ne consiste pas seulement en une masse d’informations mais également en un ensemble de comportements et de sentiments non-descriptibles sous forme de simples informations.

Dreyfus met également en exergue le principal problème de l’IA : l'incapacité à imiter la capacité de l'homme à utiliser le contexte d'un problème pour déterminer le sens des mots et des phrases. De cette façon, Dreyfus prédit que les avancées dans le domaine de l’IA stagneront tant que ce problème ne sera pas résolu.
Même si le "super-optimisme" du début semble disparaître, les tenants de l'IA n'en sont pas moins désespérés.
Ainsi en
1965, Eliza est construit au MIT. Ce système intelligent était capable de dialoguer en anglais en incarnant le rôle d’une psychologue. L’efficacité de ce système n’a pas été à prouver puisque, fait déroutant, des anecdotes montrent que certains patients devenaient de plus en plus dépendants du programme Eliza…
En
1967, le premier programme d'échecs ayant des performances satisfaisantes a été créé par Greenblatt permettant de battre un joueur d’un niveau moyen.
Durant
les années 70, de nombreuses nouvelles méthodes de développement de l'IA sont testées comme en 1971, avec le langage PROLOG . La singularité de ce langage se distingue dans son processus de fonctionnement. Au lieu de définir une suite d’instructions que l’ordinateur doit réaliser, ce langage permet d’utiliser des règles logiques pour situer le problème et par la suite le résoudre.
 L’année
1974 voit l'avènement des premiers systèmes experts, le plus célèbre conçu pour l'aide au diagnostic et au traitement de maladies bactériennes du sang. Son efficacité est telle, qu’en 1979, il sera considéré par le Journal of American Medical Assoc comme aussi bon que les experts médicaux.
De 1980 à Aujourd'hui : Accélération du mouvement

 L'efficacité prouvée des systèmes experts entraîne l'augmentation des ventes de matériels utilisant ce système. L'IA commence à se démocratiser pour apparaître dans les grandes firmes (Boeing, General Motors, etc).
De plus, de nouvelles branches de l'IA font leur percée sur le marché, notamment celui de la vision de la machine. Par exemple, des travaux sont réalisés sur l'utilisation d'une caméra reliée à un ordinateur pour améliorer le contrôle qualité (Reconnaissance des formes, etc).
 Durant les années
1980, l'IA est sortie des laboratoires pour montrer ses utilisations possibles dans la vie réelle : c’est une réelle démocratisation de ce principe qui apparait. Ainsi, à chaque utilisation de votre GPS vous utilisez le principe de l’intelligence artificielle !
Face aux détracteurs, les "pro-IA" se défendent : en 1982, Minsky écrit Why People Think Computers Can't, en réponse notamment aux critiques de Dreyfus. Minsky fait alors l’éloge de l’IA en clamant le fait qu’à l’avenir ce ne seront pas seulement des machines traversées par des courants électriques, mais des systèmes autonomes capables de « réellement penser, croire, et tout comprendre » pour reprendre ses propres mots.
 En
1983, le principe de l’apprentissage par renforcement est créé : une pénalité/récompense diminue/augmente la probabilité d’effectuer une action dans une certaine situation.
 Au début des années
1990, pendant la guerre du Golfe, l'investissement des militaires a été conséquent dans le domaine de la recherche en IA notamment pour l’amélioration de systèmes d’aide à la décision et la création de systèmes autonomes (tel que les drones).
 En
1996, Garry Kasparov champion du monde d’échec est battu par le logiciel Deep Blue d’IBM. Cet événement significatif démontre que l’IA est plus performante que l’homme dans certains domaines précis.


En 1999, la « Swarm Intelligence » (en français l'intelligence distribuée) parie que les petits organismes artificiels du futur auront la capacité de créer ensemble une intelligence collective à la manière des fourmis d'aujourd'hui : un nouveau champ de recherche est né !

retour index

 

Compte rendu du CNTRS du 23/02/18.

Synthèses vocales

 

Ce CNTRS dont le thème était de décrypter les indications des synthèses vocales pour pouvoir gérer au mieux ses applications avait attiré une très forte chambrée, puisque presque une vingtaine de personnes étaient présentes autour de la table de l’Atrium.

Après notre tour de table de présentation habituel, nous entrons le sujet avec un bref historique de l’évolution des synthèses vocales. C’est en 1791 que le Baron Von Kempelen eu l’idée de créer une machine reproduisant des sons. Cette machine était constituée d’étages d’instruments reproduisant les différents organes humains concernés. L’auditoire écoute une démonstration de cette machine où on perçoit quelques voyelles.

Une seconde génération de synthèses vocale verra le jour entre 1965 et 1985 dans la reproduction du spectre sonore, c'est-à-dire la fréquence de chaque son. Les sons reproduits donnaient une élocution saccadée, rendue célèbre par les voix de robots entendues dans la filmographie de l’époque.

La grande évolution des synthèses se fera grâce à l’augmentation de la capacité de mémoire des systèmes informatiques, car on va enregistrer pour chaque langue des diphonies, (pour schématiser des syllabes), ainsi une phrase à énoncer est convertie phonétiquement avant d’assembler les différents diphones nécessaires. Nous écoutons les créations de la société Voxygene, spécialiste en la matière, qui arrive à recréer des voix personnalisées. Les voix seront d’autant proches de la réalité, qu’elles maitriseront les 3 composantes intonations, rythme et emphase.

François nous montre une clé USB, fonctionnant avec la reconnaissance vocale.

Nous proposons ensuite un exercice d’écoute et de concentration sur les indications de la synthèse en préambule à notre déchiffrage des éléments sonore. Il s’agit d’écouter les indications sonores de la synthèse vocale pour les procédures les plus utilisées et de choisir parmi deux propositions d’actions celle qui convient le mieux.

Cet exercice a permis de découvrir les différents éléments que nous pouvons aborder lors de notre navigation sur Windows, nous y reviendrons plus en détails par la suite.

Nous précisons que les indications de la synthèse doivent être paramétrées en qualité (choix du synthétiseur, de la voix, du volume et du débit) mais aussi en quantité (en mode écriture : écho clavier par caractère ou par mot, en lecture le rythme ligne ou phrase quelques ponctuations ou plus, choisir une verbosité adaptée à son niveau (c'est-à-dire avoir besoin de plus ou moins d’informations). La perception auditive est fugitive, contrairement au visuel, il nous faut comprendre rapidement le contexte où l’on se trouve pour réagir en conséquence. C’est pourquoi le paramétrage de la synthèse doit être fait avec soin.

Pour être performant, il faut connaître également les différents éléments du système d’exploitation.

Travaillant sur Windows, nous passons en revue les différents objets : la simple notification, le message d’alerte avec bouton de validation, les boites de dialogues simples avec les boutons OUI, NON, ANNULER, les boites de dialogues plus complexes avec zone d’édition, listes déroulantes, cases à cocher, boutons radios, les mêmes boites de dialogues comportant plusieurs onglets, les fenêtres d’application avec les différentes barres et menus ; les fenêtres Windows plus spécifiques (bureau, interface métro, explorateur , panneau de configuration). Il s’agit pour chacun de ceux de bien connaître ses spécificités et de son cadre d’utilisation pour adapter sa navigation. Jaws possède en effet plusieurs curseurs et NVDA plusieurs modes de navigation (focus, document ou objet), il convient de choisir celui qui sera le plus approprié.

Cette partie, somme toute très théorique demandait un débouché pratique, c’est pourquoi un autre CNTRS a été programmé où les participants, grâce aux seules indications de la synthèse vocale devront corriger un texte, l’enregistrer, créer un répertoire et déplacer ce document dans ce dernier.

 

retour index