Rapports carrefours

Carrefours de l'année 2019

                         

                                                Février  : Reconnaissance vocale

 

Carrefours de l'année 2018

           

                                                  Février :    Intelligence artificielle

                                                                   Synthèses vocales

                                                    Juin :       Intelligence artificielle Partie 2

                                                    Septembre Orientations de l'année 18/19 et jeux

                                                     Octobre    Téléphone Olga

                                                    Novembre Fichiers Daisy et audio

                                                    Décembre : Logique et programmation

 

Liste des carrefours

Avancées médicales et technologiques

Blog

Dictaphone Milestone

Etiquettes et codes

Fichiers Daisy et audio

Glossaire informatique

Google et son univers

Intelligence artificielle

Intelligence artificielle 2

Iphones_nouveautés

Localisateurs

Logiciels libres

Localisateurs_nouveautés

Logique et programmation

Médecine nouveautés

Orientations et jeux

Partage Fichiers

Partage fichiers 2

Piratage informatique

Pratique

Reconnaissance vocale

Réseaux sociaux

Sauvegarde

Smartvision 2

Synthèses vocales

Téléphonie adaptée

Téléphone vocalisé SmartVision

Tablettes Androïd

Tablettes numériques vocalisées

 

 

COMPTE RENDU DU CNTRS DU 2/12/18

 

THEME : Intelligence artificielle

 

Intelligence

Source : Wikipedia

Définition courante

L'intelligence est l'ensemble des processus retrouvés dans des systèmes, plus ou moins complexes, vivants ou non, qui permettent de comprendre, d'apprendre ou de s'adapter à des situations nouvelles. L'intelligence a été décrite comme une faculté d'adaptation (apprentissage pour s'adapter à l'environnement ou au contraire, faculté de modifier l'environnement pour l'adapter à ses propres besoins). Dans ce sens général, les animaux, les plantes, les outils informatiques (deep learning), font preuve d'une intelligence.

L'intelligence peut être également perçue comme la capacité à traiter l'information pour atteindre des objectifs, l'aptitude à lier des éléments entre eux, à faire preuve de logique, de raisonnement déductif et inductif.

 Définition scientifique

En 1986, plus d'une vingtaine d'experts en psychologie ont été interrogés pour donner une définition de l'intelligence, mais aucun consensus ne s'est dégagé. L'intelligence reste un concept encore mal défini sur le plan scientifique.

 Intelligence humaine (psychologie)

Les débuts de l'étude scientifique de l'intelligence par la psychologie sont généralement attribués à la création du premier test mesurant l'intelligence, l'Échelle métrique d'intelligence . Les mesures de l'intelligence (le quotient intellectuel) sont du domaine de la psychométrie et ont beaucoup bénéficié des avancées de la statistique.

Les tests de QI

Le principe : vous répondez à une série de questions, seul à l’aide d’un QCM, ou en présence d’un psychologue qui commentera vos résultats. Questions de langage, de logique,de mémoire,calcul. Les tests sont divisés en plusieurs parties thématiques. Vos performances (rapidité, justesse , etc.) à chaque question sont alors comparées aux résultats de l’ensemble de la population et peuvent être chronométrés.
Côté tarifs, comptez environ 120 euros pour un test sur plusieurs séances chez un psy. Mais sachez qu’il est possible de le passer en CMP (Centres Médico-Psychologiques) ou CMPP (Centres Médico-Psycho-Pédagogiques). Enfin, les plus curieux qui ne cherchent pas un résultat sérieux trouveront de nombreux tests de QI gratuits sur Internet ou peuvent se procurer des logiciels à des prix intéressants.

Les limites de ce quotient
Le QI est une mesure indirecte, qui classe l’individu par rapport à un ensemble de personnes. L’évaluation n’est donc pas parfaite. Psychologues et experts estiment que ces tests sont fiables à 70 %. Par ailleurs, les tests de QI ne renseignent en aucun cas sur des capacités telles que la créativité ou l’imagination.

 Intelligence artificielle

Source : Wikipedia

Test de Turing

En l'absence d'une définition satisfaisante de l'intelligence, il est difficile de décider si une machine (ou un animal) est ou non intelligent. Alan Turing propose donc de prendre l'homme comme étalon. Ainsi, ce test consiste à mettre en confrontation verbale un humain avec un ordinateur et un autre humain à l’aveugle. Si l’homme qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’homme essaieront d’avoir une apparence sémantique humaine.

 Modèle de l'intelligence comme capacité à simplifier l'information de Kolmogorov

Certains chercheurs se sont inspirés des travaux réalisés en informatique théorique autour de la notion de complexité descriptive, notamment la complexité de Kolmogorov, pour évaluer l'intelligence comme la capacité à décrire ou expliquer quelque chose aussi simplement que cela peut l'être.

En ce sens, l'intelligence serait la capacité à compresser l'information.

C'est en fait souvent le genre d'intelligence qui est implicitement évaluée dans les tests de quotient intellectuel.

 Modèle mathématique d'un agent intelligent

En 2000, Marcus Hutter a proposé un modèle mathématique (informatique fondamentale) d'un agent universellement intelligent, c'est-à-dire d'un système interagissant avec n'importe quel environnement (calculable) de manière optimale. Ce modèle se base d'une part sur le cadre de l'apprentissage par renforcement, où l'agent interagit avec son environnement dans le but de maximiser l'espérance de ses récompenses et punitions, et d'autre part sur l'Induction , qui permet d'attribuer une probabilité à chaque futur possible, en fonction de sa simplicité .

Ce modèle, n'est pas utilisable en pratique pour créer une intelligence artificielle, car c'est un modèle incalculable ; des approximations sont cependant réalisables, mais au prix d'un besoin en ressources (temps de calcul, espace mémoire) immense, et actuellement seulement dans le cas de petits problèmes jouets.


 

Histoire Intelligence artificielle

Source : Site Intelligence artificielle (Travaux personnels encadrés)

Fondation de l'Intelligence Artificielle moderne durant les années 1950 

En 1943, les premiers ordinateurs voient le jour. Ces derniers sont peu performants à cause de l’utilisation du système décimal qui s’avère être complexe.           

En 1950, le mathématicien britannique Alan Turing publie, dans le journal philosophique Mind, un article intitulé Computing Machinery and Intelligence. Considéré par beaucoup comme l'un des fondateurs de l'informatique, Turing est également un des pionniers de l'Intelligence Artificielle.

Dans cet article, il explore le problème de l’intelligence artificielle peu défini jusqu’à lors. Il propose également une expérience connue sous le nom de test de Turing dans une tentative de qualifier une machine de « consciente ».
        
Extrait du journal Mind

De 1955 à 1956, Création de "Logic Theorist", considéré comme le premier programme d'intelligence Artificielle. En effet ce programme permettait de démontrer 38 des 52 théorèmes du manuel scolaire de l'époque appelé « Principa Mathematica ».
Pour ce faire, le programme modélisait chaque problème par un arbre, en tentant de le résoudre en sélectionnant la branche qui donnerait le résultat le plus proche de l'objectif final. Le programme était capable de redémontrer des théorèmes déjà établis par des mathématiciens mais de manière moins sophistiquée.
En
1956, le terme d'Intelligence Artificielle (IA) est officiellement employé . La collaboration d' informaticiens a abouti à la création de concepts réutilisés par la suite notamment dans les réseaux neuronaux ou dans la théorie du calcul.
 En
1958, Création du langage informatique LISP (mot qui a été forgé à partir de l’anglais « list processing ») qui permet de faciliter la programmation d’IA. La popularité de son utilisation provient de la simplicité de sa syntaxe : les notations sont préenregistrées  permettant alors un gain de temps considérable. Les programmeurs ne doivent enfin plus passer des nuits blanches devant leur ordinateur pour créer leur programme.
 En
1959,  Elaboration du GPR (General Problem Resolver )  capable de résoudre tous types de problèmes d’ordre géométriques et mathématiques.
En outre, les améliorations apportées à ce programme dans les années qui ont suivis ont permis de créer le premier programme capable de reproduire la capacité humaine à résoudre des problèmes :ils ne se sont donc pas restreints à créer un modèle purement informatique mais un modèle se rapprochant du système cognitif.
Cependant, le programme n’a pas abouti, à cause de l’ambition colossale du projet.
 
1960-1980 : Les années noires

L'échec du GPR, abandonné en 1967, marquera le début d'une période où l'IA sera vivement critiquée.
 Le rapport ALPAC, publié une année avant l’abandon du GPR, sera le facteur déclencheur de ce pessimisme. En effet, le gouvernement américain supprime ses subventions aux laboratoires de traductions automatiques car jugés inefficaces.
En
1972, Hubert Dreyfus, dans son livre What Computers Can't Do se livre à une violente critique des hypothèses formulés par ses prédécesseurs. Dreyfus contredit une à une chacune d’entre elles : par exemple, l’esprit était auparavant considéré comme un mécanisme fonctionnant grâce à un transfert d’informations conditionnées par certaines règles. Dreyfus réfute cette hypothèse en avançant le fait que tout ce que « nous » savons sur le monde ne consiste pas seulement en une masse d’informations mais également en un ensemble de comportements et de sentiments non-descriptibles sous forme de simples informations.

Dreyfus met également en exergue le principal problème de l’IA : l'incapacité à imiter la capacité de l'homme à utiliser le contexte d'un problème pour déterminer le sens des mots et des phrases. De cette façon, Dreyfus prédit que les avancées dans le domaine de l’IA stagneront tant que ce problème ne sera pas résolu.
Même si le "super-optimisme" du début semble disparaître, les tenants de l'IA n'en sont pas moins désespérés.
Ainsi en
1965, Eliza est construit au MIT. Ce système intelligent était capable de dialoguer en anglais en incarnant le rôle d’une psychologue. L’efficacité de ce système n’a pas été à prouver puisque, fait déroutant, des anecdotes montrent que certains patients devenaient de plus en plus dépendants du programme Eliza…
En
1967, le premier programme d'échecs ayant des performances satisfaisantes a été créé par Greenblatt permettant de battre un joueur d’un niveau moyen.
Durant
les années 70, de nombreuses nouvelles méthodes de développement de l'IA sont testées comme en 1971, avec le langage PROLOG . La singularité de ce langage se distingue dans son processus de fonctionnement. Au lieu de définir une suite d’instructions que l’ordinateur doit réaliser, ce langage permet d’utiliser des règles logiques pour situer le problème et par la suite le résoudre.
 L’année
1974 voit l'avènement des premiers systèmes experts, le plus célèbre conçu pour l'aide au diagnostic et au traitement de maladies bactériennes du sang. Son efficacité est telle, qu’en 1979, il sera considéré par le Journal of American Medical Assoc comme aussi bon que les experts médicaux.
De 1980 à Aujourd'hui : Accélération du mouvement

 L'efficacité prouvée des systèmes experts entraîne l'augmentation des ventes de matériels utilisant ce système. L'IA commence à se démocratiser pour apparaître dans les grandes firmes (Boeing, General Motors, etc).
De plus, de nouvelles branches de l'IA font leur percée sur le marché, notamment celui de la vision de la machine. Par exemple, des travaux sont réalisés sur l'utilisation d'une caméra reliée à un ordinateur pour améliorer le contrôle qualité (Reconnaissance des formes, etc).
 Durant les années
1980, l'IA est sortie des laboratoires pour montrer ses utilisations possibles dans la vie réelle : c’est une réelle démocratisation de ce principe qui apparait. Ainsi, à chaque utilisation de votre GPS vous utilisez le principe de l’intelligence artificielle !
Face aux détracteurs, les "pro-IA" se défendent : en 1982, Minsky écrit Why People Think Computers Can't, en réponse notamment aux critiques de Dreyfus. Minsky fait alors l’éloge de l’IA en clamant le fait qu’à l’avenir ce ne seront pas seulement des machines traversées par des courants électriques, mais des systèmes autonomes capables de « réellement penser, croire, et tout comprendre » pour reprendre ses propres mots.
 En
1983, le principe de l’apprentissage par renforcement est créé : une pénalité/récompense diminue/augmente la probabilité d’effectuer une action dans une certaine situation.
 Au début des années
1990, pendant la guerre du Golfe, l'investissement des militaires a été conséquent dans le domaine de la recherche en IA notamment pour l’amélioration de systèmes d’aide à la décision et la création de systèmes autonomes (tel que les drones).
 En
1996, Garry Kasparov champion du monde d’échec est battu par le logiciel Deep Blue d’IBM. Cet événement significatif démontre que l’IA est plus performante que l’homme dans certains domaines précis.


En 1999, la « Swarm Intelligence » (en français l'intelligence distribuée) parie que les petits organismes artificiels du futur auront la capacité de créer ensemble une intelligence collective à la manière des fourmis d'aujourd'hui : un nouveau champ de recherche est né !

retour index

 

Compte rendu du CNTRS du 23/02/18.

Synthèses vocales

 

Ce CNTRS dont le thème était de décrypter les indications des synthèses vocales pour pouvoir gérer au mieux ses applications avait attiré une très forte chambrée, puisque presque une vingtaine de personnes étaient présentes autour de la table de l’Atrium.

Après notre tour de table de présentation habituel, nous entrons le sujet avec un bref historique de l’évolution des synthèses vocales. C’est en 1791 que le Baron Von Kempelen eu l’idée de créer une machine reproduisant des sons. Cette machine était constituée d’étages d’instruments reproduisant les différents organes humains concernés. L’auditoire écoute une démonstration de cette machine où on perçoit quelques voyelles.

Une seconde génération de synthèses vocale verra le jour entre 1965 et 1985 dans la reproduction du spectre sonore, c'est-à-dire la fréquence de chaque son. Les sons reproduits donnaient une élocution saccadée, rendue célèbre par les voix de robots entendues dans la filmographie de l’époque.

La grande évolution des synthèses se fera grâce à l’augmentation de la capacité de mémoire des systèmes informatiques, car on va enregistrer pour chaque langue des diphonies, (pour schématiser des syllabes), ainsi une phrase à énoncer est convertie phonétiquement avant d’assembler les différents diphones nécessaires. Nous écoutons les créations de la société Voxygene, spécialiste en la matière, qui arrive à recréer des voix personnalisées. Les voix seront d’autant proches de la réalité, qu’elles maitriseront les 3 composantes intonations, rythme et emphase.

François nous montre une clé USB, fonctionnant avec la reconnaissance vocale.

Nous proposons ensuite un exercice d’écoute et de concentration sur les indications de la synthèse en préambule à notre déchiffrage des éléments sonore. Il s’agit d’écouter les indications sonores de la synthèse vocale pour les procédures les plus utilisées et de choisir parmi deux propositions d’actions celle qui convient le mieux.

Cet exercice a permis de découvrir les différents éléments que nous pouvons aborder lors de notre navigation sur Windows, nous y reviendrons plus en détails par la suite.

Nous précisons que les indications de la synthèse doivent être paramétrées en qualité (choix du synthétiseur, de la voix, du volume et du débit) mais aussi en quantité (en mode écriture : écho clavier par caractère ou par mot, en lecture le rythme ligne ou phrase quelques ponctuations ou plus, choisir une verbosité adaptée à son niveau (c'est-à-dire avoir besoin de plus ou moins d’informations). La perception auditive est fugitive, contrairement au visuel, il nous faut comprendre rapidement le contexte où l’on se trouve pour réagir en conséquence. C’est pourquoi le paramétrage de la synthèse doit être fait avec soin.

Pour être performant, il faut connaître également les différents éléments du système d’exploitation.

Travaillant sur Windows, nous passons en revue les différents objets : la simple notification, le message d’alerte avec bouton de validation, les boites de dialogues simples avec les boutons OUI, NON, ANNULER, les boites de dialogues plus complexes avec zone d’édition, listes déroulantes, cases à cocher, boutons radios, les mêmes boites de dialogues comportant plusieurs onglets, les fenêtres d’application avec les différentes barres et menus ; les fenêtres Windows plus spécifiques (bureau, interface métro, explorateur , panneau de configuration). Il s’agit pour chacun de ceux de bien connaître ses spécificités et de son cadre d’utilisation pour adapter sa navigation. Jaws possède en effet plusieurs curseurs et NVDA plusieurs modes de navigation (focus, document ou objet), il convient de choisir celui qui sera le plus approprié.

Cette partie, somme toute très théorique demandait un débouché pratique, c’est pourquoi un autre CNTRS a été programmé où les participants, grâce aux seules indications de la synthèse vocale devront corriger un texte, l’enregistrer, créer un répertoire et déplacer ce document dans ce dernier.

 

retour index

 

Carrefour Intelligence artificielle

Deuxième partie

 

 

Sommaire

 

Audio : Deux minutes pour comprendre l'intelligence artificielle

https://www.youtube.com/watch?v=8jQKRyZepJ0

Approche de l'intelligence artificielle

Applications de l'intelligence artificielle


 

Audio : 5 trucs étonnants sur l'Intelligence artificielle

https://www.youtube.com/watch?v=If6u8as-npQ


 

Risques de l'Intelligence artificielle

  




Approche

Ordinateurs

 

Les ordinateurs sont devenus de plus en plus puissants, mais ils ne permettent pas de toujours résoudre tous les problèmes.

La matériel n'est peut être pas en cause. C'est le logiciel qu'il faut améliorer.

Logiciels

 

La construction de logiciels s'appuie sur plusieurs approches:

 

 

     

 

 





TROIS MÉTHODES

 

Une approche algorithmique

 

 

Elle nécessite l’écriture du processus à suivre pour résoudre le problème puis sa transcription en un programme. Lorsque le problème est complexe, ce peut être une étape coûteuse ou impossible.

D’autre part, les ordinateurs sont des machines complètement logiques qui suivent à la lettre chacune des instructions du programme. C’est un avantage lorsque tous les cas ont été prévus à l’avance par le développeur de l'algorithmique.

 

 

Systèmes experts

 

 

La seconde approche par possible est celle de l’intelligence artificielle (IA), avec pour application la plus connue les systèmes experts.

Voir  Raisonnement par système expert

 

Ici, la résolution du problème s'appuie sur un ensemble de règles données par l’expert humain du domaine.

Il n’en demeure pas moins que toutes les règles doivent avoir été exprimées préalablement au traitement, et que le programme demeure binaire dans son exécution. Les cas qui n’ont pas été prévus par l’expert ne seront pas correctement traités.

L’introduction de la logique floue ne change pas la nature des limitations d’emploi du programme: l'exécution reste totalement déterministe.

 

 

Alors, comment aller plus loin?

 

L’approche basée sur la connaissance s'applique là où la modélisation de la connaissance est possible, sous forme de règles, par exemple:

 

 

Pour les sciences "exactes"

      l'électronique,

      la mécanique,

      la physique,

      etc.

La connaissance y est explicite.

 

 

Et non les sciences dites "humaines"

      la médecine,

      la psychologie,

      la philosophie,

      etc.

La connaissance y est empirique.

 

Les réseaux neuroniques

 

Les deux approches indiquées ne suffisent pas pour

    de la reconnaissance de formes,

    du diagnostic,

    du contrôle moteur,

    de la traduction automatique,

    de la compréhension du langage,

    etc.

 

Pour cette troisième approche, on cherche à s’inspirer du traitement de l'information effectué par le cerveau.

En effet, la structure du système nerveux, les mécanismes mentaux, les processus neurophysiologiques, l'architecture du cerveau sont à la base du développement d’un comportement intelligent.

Les réseaux de neurones artificiels tentent de reproduire ce comportement.

 

       

 

 




TROIS MÉTHODES

Approche avec l'exemple du jeu de dames

Niveaux

Trois niveaux possibles de " raisonnement "
ou plutôt: trois méthodes utilisées en intelligence artificielle

 

ALGORITHME

 

Programmation impérative

 

Avant chaque mouvement de pièce, exploration de tous les cas possibles. On peut, au prix d'une certaine complexité, y ajouter des tests pour éviter d'explorer des cas de figures très probablement perdants.

Le but étant de diminuer le nombre des calculs qui sont trop nombreux pour être calculés en un temps raisonnable. C'est encore pire aux échecs comparés aux dames.

>>> Suite

 

 

EXPERT

 

Programmation déclarative ou

logique

 

Dans une base de connaissances, on pourrait enregistrer

un grand nombre de parties connues.

Si le système reconnaît une de ces parties, il joue les coups enregistrés.

On voit bien ici que l'algorithme déroule systématiquement l'exploration de tous les coups permis.

 

Avec le système expert, comme son nom l'indique, une bonne dose de connaissances du jeu a été introduite.

Ça n'est plus une simple mécanique en action, mais l'utilisation de règles de déduction basées sur la forte connaissance des spécialistes humains.

>>> Suite

 

 

NEURONIQUE

 

Programmation fonctionnelle

 

Apprentissage en jouant des parties et en tentant de mémoriser les différences entre-elles.

Trouver les caractéristiques de chacune.

La machine se bonifie à chaque partie

 

L'homme en face ne sait pas très bien ce que la machine mémorise pour arriver au résultat. Mais ça marche!

 

Aucune expertise n'est apportée. Sinon par mimétisme du joueur en face de la machine.

Et encore! On a conçu des machines neuroniques qui jouaient entre elles. Un programme de sélection récompensait les plus fortes et éliminaient les plus faibles. Par auto-adaptation restait une seule machine qui s'est révélée très performante.

 

Voir l'exemple des échecs avec l'évolution des programmes Deep Blue (1996 – Classique)) et AlphaZero (2017 – Apprentissage profond).

>>> Suite

 

Conclusion

 

Les trois manières de trouver une solution sont très différentes et s'appliquent à des cas d'application spécifiques. Elles sont complémentaires.

     

 

Machine learning


Le Machine Learning est un sous-ensemble de l'IA. Les réseaux neuroniques sont une des technologies de base.

Arthur Samuel en 1959 en fut le pionnier et il définit le machine learning comme le champ d’étude qui donne aux ordinateurs la capacité d’apprendre sans être explicitement programmés à apprendre.

La qualité des prédictions des algorithmes s’améliore avec l’expérience.

 

 

 

 




Démarches

DESCENDANTE

ASCENDANTE

    Les robots ou automates programmés pour faire quelque chose ne font que ce qu'on leur a injecté comme instruction.

    "Insectes" de Brooks qui se débrouillent par essais et erreurs; par apprentissage et, sélection des plus adaptés.

    Ils reflètent les idées et la logique des humains.

    Ils peuvent donner naissance presque sûrement à de l'inattendu.

    L'école descendante soutient que l'esprit est comme un programme d'une immense complexité dans un ordinateur

    Hopfield pense que l'intelligence pourrait naître de la théorie quantique d'atomes stupides sans aucun programme d'aucune sorte.

    Sa théorie: tout comme un objet quantique minimise son énergie, un circuit de réseau de neurones, lui aussi, doit minimiser son énergie.

    Turing, avec sa machine, a saisi l'essence mathématique de la machine à calculer universelle.

    Hopfield a découvert l'une des lois universelles des réseaux de neurones.

 

Applications intelligence artificielle

Source : TPE sur l'intelligence artificielle

Applications actuelles

Les systèmes experts : Comme nous l’avons expliqué préalablement, les systèmes experts sont des systèmes d’aide à la décision qui se basent sur des règles bien précises. Son domaine d’action est limité mais c’est ce qui fait son efficacité.

La représentation des connaissances : C’est l’un des secteurs les plus importants de la recherche en IA, il est chargé de représenter les données de façon claire nette et précise en utilisant des symboles.

La reconnaissance vocale : Même si les progrès sont lents, les résultats sont très impressionnants et très encourageants. On n’en est pas encore au point de reconnaître parfaitement les paroles d’un individu quelconque car cela requiert beaucoup d’informations extra-langagières comme le contexte dans lequel les paroles ont étés prononcées.


La reconnaissance écrite : Contrairement aux apparences, la reconnaissance dactylographique est un problème assez complexe bien que certains logiciels fournissent des résultats plus que satisfaisants L’écriture manuscrite (la mienne par exemple) pose quant à elle un problème encore plus sérieux dans la mesure que son interprétation pose parfois à l’homme un problème insoluble. Ainsi que les captchas, vous savez ces codes visuels.

La reconnaissance des visages : Ce type de logiciels a longtemps considéré comme le plus difficile à élaborer, cependant, les réseaux neuronaux offrent des résultats intéressants.
Le correcteur orthographique : Cet outil est lui aussi une œuvre de l’IA et je remercie son créateur qui m’a évité de nombreuses fautes ! Bien utile pour éviter de faillir (trop souvent) à la langue française !
Le traitement du langage : Avant de résumer ou de traduire un texte, il faut préalablement le comprendre. Un logiciel aura compris un texte quand il sera capable de le représenter sous une forme indépendante de la langue dans laquelle il a été écrit. Bien que cette tâche soit très difficile, de nombreux progrès ont été réalisés.
La résolution des problèmes : Les jeux donnent une bonne image de ce domaine : le champion du monde de Backgammon est un programme depuis quelques années déjà et cela sera vraisemblablement aussi le cas pour le jeu d'échecs dans peu de temps. Le jeu de Go résiste beaucoup plus aux efforts des programmeurs de jeux.

  Les chatterbotsCes chatterbots ("agents conversationnels" en français) sont des programmes dont le but est de fournir un dialogue digne d’un humain. Ce type d’IA a été particulièrement émulé par le test de Turing. Ainsi certains bots donnent l’impression d’un dialogue censé, convivial, naturel et sans trahir sa nature mécanique !L’un des premiers chatterbots est un psychothérapeute du nom d’ELIZA. Elle commençait par poser une question neutre (Bonjour. Pourquoi venez-vous me voir ?) à la personne testée, puis analysait à chaque fois la réponse pour tenter de reposer une question en relation avec celle-ci. Si une question lui était posée, elle demandait pourquoi on lui posait la question. Si une phrase contenait le mot « ordinateur », elle demandait : « Dites-vous cela parce que je suis un ordinateur » ? 

Exemple de conversation avec le programme Eliza

Depuis la naissance d'internet, de nombreux entreprises de marketing se sont intéressés à cet outil. Ainsi, si vous avez des problèmes auprès de SFR, adressez-vous à Lucie ! La SNCF vous proposera l’aide de Léa. Ce type de chatterbot est donc très présent dans notre quotidien. 

Cependant vous vous inquiétez peut-être de savoir si vous parlez à une machine ou à une véritable personne en chair et en os ? Pour cela il y a des petites astuces : Posez lui un calcul plutôt dur et voyez si la réponse arrive rapidement (dans ce cas l’interlocuteur est une machine) ou non. Vous pouvez aussi faire appel à la perception visuelle, un exemple : « Si je retourne la lettre W, quelle lettre obtiens-je ? »
Cependant, les concepteurs de chatterbots essaient de vous tromper en simulant des fautes de frappe, des erreurs de calcul…

 Les jeux-vidéo

L’industrie des jeux vidéo a accompli de grandes avancées en avant au cours des dernières décennies. Les joueurs se sont habitués à ce que chaque nouveau jeu soit plus complexe et plus intéressant. Pour les développeurs, le défi consiste à aller toujours plus loin, pour créer des jeux sans cesse plus attractifs. Pour répondre aux attentes des joueurs, l’IA pilotée par ordinateur a évolué de nombreuses manières. Pourtant, ce n’est pas chose aisée.

Au niveau le plus élémentaire, l’IA consiste à reproduire le comportement d’autres joueurs ou bien de gérer le comportement des éléments actifs (c’est-à-dire tous les éléments du jeu sur lesquels on peut agir). Le concept de base est que ces comportement soient simulés. En d’autres termes, l’IA des jeux est plus « artificielle » qu’« intelligente ». Deux catégories peuvent alors être différenciées : il peut s’agir d’un système simple conditionné à base de règles, ou complexe, destiné à s’opposer à un joueur (une armée adverse par exemple).

Désormais les recherches en IA visent à créer une vraie intelligence, même si c’est par des moyens artificiels. Des projets comme Kismet du MIT tentent de créer une IA capable d’apprentissage et d’interactions sociales ainsi que d’émotions. Ce serait fort intéressant à intégrer dans des jeux de rôle tels que les Sims !

Dans les jeux actuels, une vraie IA est très loin de ce que l’on attend d’un logiciel ludique. L’IA des jeux n’a nul besoin d’être douée ni de raison ni de conscience (en fait, il faut mieux qu’elle ne le soit pas) ; elle n’a rien d’autre à apprendre au-delà du gameplay (les différentes commandes du jeu). Le vrai objectif de l’IA dans les jeux est de simuler un comportement intelligent et de fournir au joueur un défi crédible afin qu’il soit en mesure de relever le tenant ainsi en haleine.

  • Les robots

Connu par tous, ces dispositifs se doivent d'accomplir des tâches généralement dangereuses (déminage) ou répétitives (travail en usine) pour les humains. La précision accrue de ces machines les ont rendues utiles dans de nombreux domaines. Combiné avec le principe de l'IA, les résultats sont surprenants... Les robots sont soumis à plusieurs règles pour pouvoir être efficaces : ils doivent être capables d’apprendre de leur environnement et de leurs erreurs. Effectivement, s’il n’est pas capable d’apprendre, le robot ne peut être qualifié d’intelligent. 

 Les robots peuvent faire vos tâches ménagères ! Le robot aspirateur Samsung peut nettoyer votre appartement ou votre maison silencieusement !

 Le robot peut également avoir des fins médicales ! Il peut emmètre un diagnostic ! Certains robots ont même été jugés experts en médecine. Il doit cependant être dirigé par un médecin, grâce à cette avancée, des opérations avant impensables sont réalisables ! Particulièrement au niveau des yeux.

 Les robots sont aussi utilisés par les astronautes pour explorer la Lune et Mars, car il est moins dangereux d’envoyer un robot dans l’espace qu’un humain ! Ils sont ainsi commandés depuis la Terre et permettent de ramener des minerais et des photographies de l’espace.

 Ces robots peuvent servir aux ordres de l’armée également ! Voici quelques robots présents dans les forces armées :

Le drone : Initialement un avion de reconnaissance sans pilote, il peut servir à des fins destructrices également et avec une précision remarquable il est également capable de neutraliser les instruments de communication et les radars. On retrouve de ces engins dans l’armée américaine et notamment en Afghanistan.

Le SGR-A1 : Ce robot fait office de sentinelle. Il est utilisé pour surveiller la zone démilitarisée séparant les deux Corées. Le robot est posé au sol et incapable de se déplacer mais il scrute l’horizon grâce à des systèmes de vision très élaborés et même dans la nuit. Étant incapable de différencier si a cible est hostile ou non, il considère toute personne pénétrant dans la zone démilitarisée comme un adversaire. Le robot lui assène donc des tirs de mitrailleuse après sommation (celle-ci étant mobile pour suivre sa cible). Ce robot peut être commandé manuellement ou mis sur un mode automatique.

 AlphaDog LS3 : Robot autonome monté sur des « pattes » ayant pour mission de soulager les militaires des lourdes charges. Il est capable de porter des lourdes charges sur de longues distances.

 Le Talon Maars : Robot mobile doté de chenilles pour se déplacer, de quatre caméras, d’une vision thermique et d’une mitrailleuse. Utilisée par l’armée américaine, son but est de ne pas exposer les soldats à des dangers inutiles. Cette machine est notament capable de monter les escaliers ! Elle est dirigée à distance par un militaire. 

De nombreux robots servent également à exposer les compétences des entreprises, ces robots sont dit d’exhibition, vous pouvez voir dans la rubrique « exemples incroyables » les performances du violoniste de Toyota.

Applications IA : reconnaissance vocale, robots médicaux ou militaires.

Vidéo : http://breakforbuzz.com/10-intelligences-artificielles-vraiment-intelligentes/

Applications futures

  • L'exemple du cyborg

La notion de cyborg appartient de moins en moins à la science-fiction mais de plus en plus à la réalité. Les petits robots qui font votre cuisine, votre ménage, les drones de l’armée, ceux que l’on envoie dans l’espace et surtout les greffes médicales sont de plus en plus présents dans notre quotidien !
Un chercheur anglais s’est implanté une puce dans le bras pour que les portes de son labo s’ouvrent d’elle-même, rien de bien impressionnant me direz-vous « Au supermarché on a la même chose et sans puces. » Mais ces portes sont sécurisées et une voix lui souhaite personnellement la bienvenue.
Le chercheur poursuit l’expérience et cherche à décoder les messages nerveux du corps pour ainsi sensibiliser son PC à son humeur : un geste d’agacement et la machine posera des questions plus explicites. De la fatigue ou de la lassitude et le PC lancera un logiciel pour aider Kévin.
Kévin pense donc arriver à un homme bionique et ainsi acquérir des capacités extra-sensorielles grâce à la technologie qui analyse la fonction du cerveau. Les progrès en nanotechnologie ont donc un bel avenir et ainsi permettre à des nano-agents de soigner les maladies autrement que par prise de médicaments traditionnels. L’évolution en termes de greffe est donc très attendue, même si récemment, une greffe de visage à été rendue possible, peut-on espérer recréer des cellules musculaires ou oculaires et confier leur contrôle à des puces ?
Combien d’entre-vous se sont-ils dit : « Ah si je pouvais mémoriser comme un ordinateur et ressortir tout ça quand je le veux ! » Et bien, ceci serait possible en connectant notre cerveau à un cerveau artificiel construit comme un disque dur d’ordinateur ! Ceci nous permettrait de penser en plusieurs dimensions !

Le plus impressionnant serait de pouvoir communiquer directement par la pensée, « de l’âme pour l’âme » ainsi le jeune Rimbaud avait exprimé son rêve. Ceci serait possible en communiquant à l’aide d’ondes comme les ondes radio ou wi-fi.


 

Risques démesurés à l'avenir



Ce risque est un risque sérieux car sans nous en rendre compte, la machine est déjà au-dessus de l’homme. Si le but premier est de doter la machine de conscience, alors ne se rendra-t-elle pas compte de sa condition ? Alors on peut envisager qu’elle se « rebellera » contre l’homme car elle se sentira exploitée. Les conséquences pourraient être dramatiques.
Ce risque est très faible mais il existe quand même.

Imaginez une IA qui est chargée de gérer les communications, imaginez ensuite qu’elle prenne conscience de la tâche qu’elle réalise, si elle le veut (on retrouve les grands objectifs des chercheurs : doter la machine de conscience et de volonté) elle pourrait paralyser toutes les communications d’un pays, ou pire, inventer des fausses communications semant ainsi un chaos monstre. La portée d’action est très vaste car si elle contrôle les ondes hertziennes, elle peut commander tous les appareils dotés de récepteurs. 

Ce scénario est très improbable cependant il est souvent développé dans des films et livres. De nombreuses œuvres cinématographiques mais aussi littéraires s’inspirent de ces suppositions.
il est donc important de pouvoir neutraliser ces machines, en leur coupant leur alimentation énergétique par exemple. Ou en les obligeant à suivre des règles très simples pour les empêcher de nuire à l’homme.
Pour prévenir ces risques,
Isaac Asimov a énoncé des lois : 


     · Première Loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger.

       · Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi
 ·
Troisième Loi : Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la Première ou la Deuxième Loi.
       ·
Il ajoute ensuite une loi 0 : "Un robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit blessée." 

Isaac espère ainsi éviter les bavures qui peuvent être commises en élaborant un robot dirigé par une IA. Cependant il en évoque aussi les limites dans ses livres : Un robot laisserait-il un homme fumer une cigarette ?

Cependant, l’homme a lui-même pervertis la machine en créant des virus et des logiciels malveillants rendant ainsi les machines nuisibles à son utilisateur. Ceci comporte un danger important dans la mesure où les programmes sont de plus en plus sophistiqués et ont même la capacité de se reproduire ! Ils pourraient donc devenir très nombreux et incontrôlables par son créateur et se propager par Internet. 

retour index

 

COMPTE RENDU DU CNTRS DU 28 SEPTEMBRE 2018.

 

Ce CNTRS était le premier de la saison 2018-2019, il avait pour but de présenter les nouvelles orientations qui devraient couvrir cette présente saison. Pour l’occasion, un repas convivial était prévu à midi pour fêter cette Rentrée. Une dizaine de personnes était présentes, tous des fidèles.

La première annonce était un secret de polichinelle : la retraite au bout de 17 ans du permanent salarié du club et si je prends avec plaisir cette moindre activité, je précise rester, en tant que bénévole, 2 jours par semaine : Bruno, le mardi et Alfred, le vendredi compléteront le trio de responsables. On détaille ensuite l’arrivée de François comme responsable de la maintenance le mercredi, que le magasin ouvrant ses portes, notre activité de pratique des nouvelles technologies se trouvera renforcée, assurée par Patou et Alfred.

Notre lutte contre les nuisances sonores continue avec la mise en service, pour chaque poste fixe de casques micro efficaces et confortables.

Pour les orientations pédagogiques, les chemins tracés précédemment sont toujours d’actualité avec une volonté de préconiser une configuration technique opérationnelle rapidement et sans trop de couts supplémentaires toujours avec NVDA, version 17.3 et l’utilisation de la loupe Windows et des logiciels libres tels que Libre Office.

La formation à l’autonomie doit être complétée en 2019 par une formation professionnelle, les plaquettes d’information sur cette voie seront très bientôt disponibles, elles sont en cours d’impression. Notre prochaine étape sera d’en diffuser largement le contenu aux différents acteurs concernés.

Et c’est dans cette optique que situe notre souci d’étalonner la formation dispensée, vue plus haut.

Notre CNTRS se poursuivit avec un quizz qui a permis de réviser les notions de cours essentielles ou de compléter ses connaissances en glossaire ou histoire de l’informatique.

Deux équipes furent constituées sous la houlette de Bruno et d’Alfred. L’équipe de Bruno se détacha rapidement et fit cavalier seul, bien aidé par le hasard qui lui attribua bon nombre de questions faciles, ce qui lui d’être beau joueur en accordant une question simple aux équipiers d’Alfred qui répondit de façon exacte et sur la lancée enchaina victorieusement en donnant très précisément les procédures demandées lors du questionnaire. L’équipe d’Alfred gagna en profitant de la chute de l’équipe adverse sur une question difficile, concernant Windows 1.0, vous connaissez sa date de lancement ?

Le jeu prit fin, faute de temps, et les épreuves pratiques qui n’ont pas été tirées au sort, seront gardées pour une prochaine édition

retour index

 

Téléphone Olga

Le téléphone « OLGA » est un appareil très convivial, il suffit de taper sur l’écran avec un doigt pour l’activer, alors une voix demande « que puis-je faire pour vous ? »il suffit de lui dire, appeler, écrire, ou rentrer un contact etc. le téléphone exécute l’ordre. Ce qui le place pour l’accessibilité à la portée des personnes porteuses d’un handicap visuel. Les deux points de vigilance son le prix avec un abonnement mensuel, et de s’assurer d’une bonne couverture réseau aux lieux d’utilisations.

Pour plus d’info suivre le lien suivant avec Ctrl + clic de gauche.

https://olgaphone.com/

 

retour index

 

 

Compte rendu d’atelier

 

Le Format MP3 Daisy

 

Définition et caractéristique

DAISY (Digital Accessible Information SYstem1) est une norme pour livres audio mise au point par le consortium DAISY et publiée par l'ANSI.

Les livres audio DAISY sont destinés aux personnes empêchées de lire des documents imprimés (aveugles, malvoyants, dyslexiques, handicapés voyants mais ayant du mal à tourner les pages d’un livre, etc.) Il s’agit de livres structurés permettant une navigation aisée à l’intérieur du texte.

On parle de livres DAISY pour les livres audio à la norme DAISY, de lecteurs DAISY pour les dispositifs (matériels et/ou logiciels) permettant de lire des livres à la norme DAIS

Ainsi avec ce format il sera possible de :

-repartir de la position abandonnée précédemment

-de revenir en début en fin d’ouvrage ou d’avancer dans le temps

-d’insérer des marques pages

-remodifier volume, débit et hauteur de la voix.

Opérations ne pouvant être effectuées avec un fichier audio classique.

 

La Lecture d’un fichier Daisy

Par un lecteur de CD

Du fait qu’il s’agit d’un fichier MP3, cet ouvrage pourra être lu par n’importe quel lecteur de CD, mais sans les possibilités que nous venons d’évoquer.

Par un ordinateur avec le logiciel AMIS

Ce logiciel se présente sous la forme d’une interface simplifié ou à gauche on trouvera toutes les sections, à droite défileront celles qui sont lues avec une barre de menu accessible. Le menu Fichier permet d’afficher l’ouvrage que l’on souhaite entendre. Le menu explorer rappelle que les flèches droite ou gauche nous font passer de phrases en phrases, celles du haut ou bas font défiler Enfin le menu Signets permettra d’insérer ceux-ci pour parcourir le livre de signet en signet. Boutons lecture/pause avance ou retour. Des raccourcis claviers facilitent la tâche : Espace pour lancer la lecture, Echap pour en sortir, CTRL +I augmenter le volume, CTRL +D pour baisser, CTRL +R accélère le débit ou CTRL + Y pour ralentir. Ce logiciel présente toutefois des caractères d’instabilité.

Avec un lecteur Daisy

On en distingue deux types :

Celui du salon le plus connu est le Victor Reader autrefois utilisé pour la lecture des CD, équipés désormais de ports USB pour les Clefs ou de lecteurs de cartes SD

Le lecteur enregistreur de poche type Victor Stream, Evo ou Milestone. Ils fonctionnent uniquement avec des cartes SD.

Pour ces deux types de matériels on retrouve les fonctions de navigation énoncées.

Avec un smartphone ou une tablette.

A l’heure actuelle le mode qui a le vent en poupe : en effet les smartphones peuvent utiliser des lecteurs multimédias dont l’application recommandée : Voice Dreams Reader que l’on peut obtenir par le canal de l’Apple store ou App store Google, elle coute environ 10€

D’autres applications gratuites peuvent également lire des formats Daisy, mais il faudra s’assurer de leur accessibilité.

Pour utiliser cette application, on télécharge par le biais d’un navigateur embarqué les ouvrages sur le site Eole. Il faut faire cependant à la disponibilité du stockage et l’utilisation d’une carte SD interne est souhaitable.

Une fois le téléchargement réalisé il suffit de parcourir ses fichiers pour l’inclure dans la bibliothèque.

La lecture permettra d’afficher la structure de l’ouvrage sur lequel on navigue.

La Création de fichiers Daisy avec le logiciel OBI

Un enregistrement Daisy peut être comparé à un train ou les wagons seraient les différentes sections de l’ouvrage et où les sièges seraient les phrases. Pour continuer sur cette comparaison, on peut monter dans n’importe quel wagon, passer de l’un à l’autre ou choisir différents sièges.

Le logiciel OBI permet d’éditer textuellement une structure hiérarchisée de section et sous-section, dans lesquelles on fera glisser les fichiers audios. Les silences découpent le fichier audio en phrases qui sont l’unité élémentaire sur laquelle on peut naviguer.

Avec le lecteur Daisy on passera ainsi du début ou à la fin, passera de section en section et surtout on pourra marquer une position de reprise.

Je vous propose donc en guise de créer, en guise d’exemple, un fichier audio Daisy grâce au logiciel OBI qui reprendra les termes de cet atelier.

CONCLUSION :

Le format audio MP3 Daisy par sa souplesse d’utilisation en fait le support privilégié de la lecture adaptée. La multiplication des smartphones dans l’environnement de nos bénéficiaires, il a un très grand rôle à jouer non seulement pour la lecture mais pour tout type de document à étudier.

 

 :

Utilisation de Audacity avec NVDA

 

Présentation

Audacity® est un logiciel libre, gratuit et multiplateforme destiné à l’'enregistrement, la lecture et le traitement de sons. Audacity a été créé en 1999 par Dominic Mazzoni, et il est actuellement développé par une équipe de bénévoles. Audacity est un éditeur multipistes c'est-à-dire que l’on peut travailler sur plusieurs fichiers audio dans la même fenêtre (exemple faire un mixage).

Le logiciel est disponible à l'adresse http://audacity.sourceforge.net/. La version la plus récente d'Audacity est la 2.2.2

Principales fonctionnalités d’Audacity

- Lire un fichier audio de tout format installé sur son pc ( sauf type cd audio)

- S'enregistrer à l’aide d’un microphone ou enregistrer le son d’une vidéo par exemple sur YouTube.

- Appliquer différents effets sonores sur un fichier importé (changer la hauteur, le tempo, faire des fondus, etc..)

- Réaliser un montage audio ou mixage et l’enregistrer sous forme de projet ( fichier extension .aup )

Lecture d’un fichier audio

Pour pouvoir lire un fichier audio il faut d’abord l’importer dans l’écran fenêtre d’Audacity à l’aide de la commande clavier Ctrl+Maj+I. Après avoir importé un fichier audio, apparait à l’écran une représentation du fichier son sous formes d’ondes ainsi qu’un axe horizontal de temps .Cela s’appelle une piste avec un nom correspondant au fichier importé. Grace aux touches de direction droite et gauche on peut déplacer le curseur sur la piste. La lecture de la piste dépendra donc de la position du curseur sur la piste sélectionnée.

Chaque fichier importé crée une nouvelle piste qui se place en dessous de la première

Pour passer d’une piste à une autre on tape d’abord sur Entrée puis flèche bas ou haut

Pour changer le nom d’une piste : menu contextuel puis flèche bas : Nom ou Maj+M puis flèche bas

Les commandes clavier pour lecture

Pour démarrer la lecture : appuyez sur la barre d'espace .Pour pause taper P ; pour reprendre la lecture retaper P .Pour arreter la lecture faire barre espace. Le curseur se remet alors en position zéro

Pour arreter la lecture à un instant donné taper X. le curseur de lecture reste alors placé dans l’axe des temps à la position d’arret et NVDA annonce la position du curseur.Toute poursuite de lecture par barre espace s’effectuera donc à partir de la position du curseur.O n peut déplacer le point d’arrêt avec flèche gauche ou droite.Pour retourner en début de piste taper touche origine ou J.Pour aller en fin de piste faire K.

 

Les déplacements

Début de piste J, fin de piste K

Pendant la lecture, sauter vers l'avant ou vers l'arrière par courte période en faisant Flèche gauche ou Flèche droite . Pour sauter vers l'arrière ou vers l'avant par longue période, appuyez sur Maj + Flèche Gauche ou Maj + Flèche droite Pour jouer en boucle, c'est à dire répéter en continu, appuyez sur Maj + Barre d'espace .

Astuce : pour évaluer la durée d’une piste audio, taper K et NVDA annonce la position du curseur qui correspond donc à la durée totale de la piste.

Les sélections

Pour sélectionner une piste faire Entrée .Pour sélectionner l’audio d’une piste faire Maj+K ou Ctrl+A.NVDA annonce la durée de la sélection.

Pour sélectionner une partie d’un fichier audio depuis la position du curseur

Lancer la lecture par barre espace et au moment voulu faire X : le curseur se positionne au point d’arret. Faire Maj+J pour sélectionner depuis le début de piste jusqu’à la position du curseur ,ou faire Maj+K pour sélectionner depuis position du curseur jusqu’à la fin de piste .

Selection d’un extrait audio d’une piste

Lancer la lecture par barre espace et au moment voulu faire X .( exemple seconde 10).Ensuite faire maj+ flèche droite jusqu’au point désiré ( exemple seconde 15 ).Faire alors Copier ( Ctrl+C) puis faire Ctrl + N pour ouvrir un nouvelle fenetre ( ou projet ) et faire Coller ( Ctrl +V) .De cette manière on a créé un fichier audio correspondant à la partie que l’on a sélectionné dans le premier projet.

Ne pas oublier que pour passer d’une fenêtre à l’autre on utilise Alt+Tab

Remarque : on peut aussi supprimer un extrait audio en sélectionnant les parties de piste non désirée parles combinaisons Maj +J et Maj+K et faire ensuite Suppression.

Enregistrement

Paramétrer dans les préférences Audacity l’enregistrement toujours dans une nouvelle piste.

Pour commencer un enregistrement audio, brancher un microphone sur entrée micro carte son Appuyez sur R . Une nouvelle piste est automatiquement ajouté au projet, et le nom par défaut de la nouvelle piste est "Piste audio". Pour mettre en pause ou reprendre l'enregistrement, appuyez sur Pour arrêter l'enregistrement, appuyez sur la barre d’espace.

 

 

Traitement du son dans un fichier

Utiliser le menu Effets

Modifier le volume : Choix Amplification et avec tab et fleche droite ou gauche pour utiliser le potentiomètre et Tab jusqu’à Précoute avant de faire Tab jusqu’à Valider.

Changement de la hauteur : La caractéristique qui permet de dire si un son est aigu ou grave est appelée hauteur.

Changement du tempo : permet par exemple de ralentir le débit d’un enregistrement .la hauteur n’est pas modifiée

Changement vitesse : il y a modifications de la hauteur et du tempo

Fondu en ouverture ou fermeture sur une sélection d’une partie

Quelques gadgets : Echo, Réverbération, Amplification , Basse et Aigu etc…

Utiliser le menu Générer pour créer un silence

 

EXERCICES

-Faire un fondu en ouverture ou fermeture

Pour fondu en ouverture lancer lecture repérer par X le point de fin .Faire Maj+J (sélection depuis le début jusqu’au point) et menu Effets Fondu ouverture. Faire barre espace pour écouter le rendu.
Pour fondu fermeture taper X au moment choisi puis Maj+K (sélection jusqu’à la fin) Effets fondu fermeture. Faire barre espace pour écouter le rendu.

- Sélectionner une partie d’un fichier audio et exporter en mp3 ( sonnerie de téléphone < 30 sec)

Lancer la lecture par barre espace et au moment voulu faire X : le curseur se positionne au point d’arrêt. Faire Maj+J pour sélectionner depuis le début jusqu’à position du curseur et suppr pour supprimer la partie non désirée. Reprendre la lecture par barre espace jusqu’à la position d’arret souhaité .Faire Maj+K pour sélectionner depuis position du curseur jusqu’à la fin et Suppr pour supprimer ce qui n’est pas voulu .Il reste donc que l’extrait souhaité. Exporter ensuite en mp3 par menu fichier Exporter ou Ctrl+Maj+E

-Mettre une introduction parlée avant un fichier audio

Première méthode : Importer le fichier audio ( ex le corbeau et le renard).Ouvrir par Ctrl+N une nouvelle fenêtre Audacity et enregistrer l’intro touche R puis barre espace pour arreter l’enregistrement .Sélectionner le tout par Maj+K ou Ctrl+A puis copier par Ctrl+C. Retourner par Alt+Tab dans la fenêtre du fichier audio ( le renard et le corbeau) .Faire origine pour être en début de piste et Ctrl+V pour coller l’intro sur la même piste. Refaire Origine et écouter le résultat.

Remarque Si on veut insérer un silence entre la fin d’intro et le début du fichier audio , placer le curseur en fin d’intro par X, puis menu Générer Silence choisir le nb de secondes souhaité et faire Tab jusqu’à Valider .

Deuxième méthode : : Importer le fichier audio ( ex le corbeau et le renard).Ensuite générer un silence d’une durée égale à l’enregistrement prévu. Procéder alors à l’enregistrement qui s’effectue donc sur une deuxième piste que l’on peut renommer par menu contextuel choix Nom.ultat obtenu.

- Montage audio : Sonoriser un document parlé

Faire fichier /Importer deux fichiers pour avoir par exemple

Le renard et le corbeau sur première piste et la musique de fond sur deuxième piste.

Les deux pistes commencent donc au temps zéro avec le meme volume sonore

Remarque :Pour changer de piste faire fléché haut ou bas puis Entrée pour sélectionner et travailler sur une seule piste .On doit refaire entrée pour désélectionner une piste.

Baisser le son 2ieme piste par menu Effets amplification de manière à rendre audible le texte parlé.

Raccourcir la durée de la musique de fond de manière à la faire coincider avec la durée du texte.

Pour cela ,on replace le curseur sur la première piste par touche haut et entrée ( première piste).

Ensuite avec la touche K, le curseur se met en fin de piste et NVDA annonce la position du curseur donc la durée de la piste.Il suffit donc de se repositionner sur la deuxième piste la sélectionner par entrée et ensuite faire Maj+K et suppression pour supprimer la partie inutile après la position du curseur. Les deux pistes auront ainsi la meme durée. On peut aussi utiliser le menu Pistes choix Aligner les pistes sous menu Terminer en fin de sélection.

Exercice : Réaliser un projet de montage audio avec la lettre NTIA du club informatique

  1. Importer le fichier audio lettre du club dans Audacity .La lettre étant trop longue on ne va conserver qu’une durée de 3 minutes .Pour cela soit se déplacer avec fleche droite jusqu’au temps 3mn , ou pour être plus précis on va utiliser l’outil de sélection .Pour cela faire Ctrl+F6 et avec Tab se déplacer sur le champ fin de sélection. Ensuite avec flèche droite entendre unité minute saisir alors 3.Faire Ctrl +F6 deux fois pour se repositionner sur la piste. Pour pouvoir amener le curseur à la position exacte 3mn ,faire menu Transport choix Petit saut de curseur à fin de sélection .Il ne reste plus qu’à faire Maj +K et suppression pour effacer le reste de la piste ( depuis la position du curseur jusqu’à la fin ).

  2. 2) Ouvrir une nouvelle fenêtre Audacity et enregistrer une annonce d’environ 10 sec exemple : ceci est la lettre NTIA .Copier l’annonce ( CTRL+C)et retourner par Alt+tab dans la fenetre lettre NTIA .Positionner le curseur en début de piste avec touche Origine et coller l’annonce par CTRL+V .Enregistrer le projet sous…..et refermer Audacity

  3. Sonoriser la lettre du club après l’annonce : Pour cela il faut recouvrir dans Audacity le projet (fichier xxx.aup) .Ensuite importer un fichier audio musical qui servira d’accompagnement.

  4. Pour faire coïncider le début de l’accompagnement musical ( deuxième piste) avec le début du fichier lettre NTIA ( première piste) ,il faut sélectionner la première piste et avec la fléché droite déplacer après la fin de l’annonce et juste avant la lecture de la lettre .Taper X pour arrêter le curseur à ce temps précis. Ensuite désélectionner la première piste ,sélectionner la seconde piste correspondant à l’accompagnement musical et faire glisser cette piste jusqu’au temps reperé par la position du curseur de le curseur en utilisant le menu Piste choix Aligner les pistes sous menu fleche bas Commencer au curseur début de sélection. Si nécessaire, supprimer la partie de la deuxieme piste supérieure à la durée de première piste par la commande Maj +K (sélection du curseur à la fin de piste) et Suppr.

retour index

 

Compte rendu du CNTRS du 14 décembre 2018

Logique et méthodologie en informatique adaptée.

 

Pour cet atelier, nous n’avions pas mis de barrières tant que nous savions que la foule ne serait pas présente, quoiqu’il en soit 7 personnes étaient à notre RDV mensuel.

L’objectif n’était pas de faire des « analystes », mais être autonomes avec un système informatique adapté requiert que l’on sache retrouver les règles d’une procédure plus par la logique que par la mémoire ou qu’on puisse, lors d’une panne, établir un diagnostic en procédant par élimination.

Différents exercices ont été proposs à cette occasion :

Trouver un nombre manquant dans une suite de chiffres, le résultat peut être parfois très simple, un peu plus compliqué quand il s’agit de suite décroissante voire même peu évidente quand s’entrelacent deux suites décimales de sens opposé.

L’exercice de codage décodage a pour but de trouver le bon début et d’etre très rigoureux dans sa démarche d’élimination. Xcet exercice a été pour certains participants une souffrance mais il a eu pour effet d’éclairer nos auditeurs sur la démarche déductive.

L’exercice sur la mémoire se voulait démontrer la limite de cette méthode : les participants étaient appelés à se souvenir de 3 listes de 8 chiffres et notamment de leurs positions relatives dans ces listes.

François s’est voulu plus pragmatique en utilisant de « programmation » lorsqu’on suit une recette de cuisine, en effet même dans l’art culinaire la logique est de mise.

Il a en , outre , à partir de pannes , notamment quelles peuvent être les raisons pour qu’un ordinateur reste en écran noir, mettant ainsi en valeur les vertus d’un travail par élimination.

Enfin dernier exemple : la recherche Google, l’importance des termes et de la syntaxe pour obtenir le résultat approprié.

Si le cœur vous en dit ,v oici les suites logiques. Le résultat dans notre procghaine lettre :

Remplacez dans les suites suivantes, le point d’interrogation par sa valeur logique :

  1. 2, ?, 4,12 ,48,240

  2. 18,26 ,34,42, ?

  3. 50, 300 ?, 150, 200,75

  4. 4,4,5,6,8,5,12, ?

  5. 50,48,44,38,30 ?

  6. 63, 99, 72,108,?

  7. 10,21, 43, ?,175 ,351

  8. 7,8,911,13 ;16 ?

  9. 50,25,47,5 ;27,5 ;45 ;30 ;42,5 ;?

  10. 50 ;47,75 ;45,5 ;43,5

EXERCICE DE LOGIQUE VERBALE :

Complétez avec une des propositions, la phrase proposée :

  1. Vide est à Plein , ce que Soiréé est à …(Fin,Réveil,, Heure, Matinée)

  2. Carré est à Rectangle, ce que Cercle est a (Sphère, Courbe,Diamètre, Elipse, Rayon)

  3. Envoyé est à Reçu, ce que Lancé est à…(Jeté ,Attrapé, Lu Cassé)

  4. Cerveau est à Tête ce que Cœur est à…(Vie,Thorax,Poumon,Sang et Respiration)

  5. Peintre est à Pinceau, ce que Scribe est à …(Crayon,Page,Livre,Mot Papier

Choississez pour chacune des propositions, le synonyme le plus proche :

  1. Parodie (Caricatural, Prépondérant, Doctrine, Division)

  2. Vaste (Pittoresque, Vaste, Eloigné,Grand)

  3. Coutume (Tradition,Désir, Histoire, Perception)

  4. Retenue (Inspection, Tendresse,Humilité, réservé)

  5. Irrationnel (Absurde, Intransigeant, Perdu, Dangereux, Irremediable)

Choisir la bonne signification des expressions suivantes :

  1. Ne pas être sorti de l’auberge (se trouver dans une situation difficile à résoudre, avoir toujours faim, Reprendre des forces)

  2. Manger son chapeau (Gaspiller son argent, Manger plus que l’on peut avaler, se sentir déprimé, admettre s’être trompé)

  3. Etre dans de beaux draps (Etre riche,Etre dans une situation com)lquée, Etre distrait,Etre à la charge de quelqu’un)

  4. Faire chou blanc (S’endormir, Préparer un repas, Subir un échec, Passer son temps)

  5. Boire du petit lait (Savourer une situation,Gaspiller de l’argent, Etre fortuné, Avoir faim)

 

EXERCICE DE CODAGE

A partir de la table de codage suivante :

A : 1010

B : 0010011

C : 01001

D : 0110

E : 110100

F : 0111

G : 0111110

H : 001001

I : 100

J : 011111110

K : 01111111100

L : 1011

M : 00101

N : 1001

O : 0000

P : 01000

Q : 011111

R : 101

S : 1011

T : 0110

U : 0011

V : 001000

W : 01111111000

X : 011111

Y : 01111111101

Z : 0111111110

ESPACE : 111

 

  1. Chiffrer nom et prénom de deux membres de votre groupe.

  2. Déchiffrer le message suivant : 00010010111100000001010010110100110100000001001

EXERCICE DE MEMOIRE :

Ecoutez attentivement les listes de nombres.

Répondez aux questions les concernant.

EXERCICE REMETTRE DANS L’ORDRE LA FABLE

Un vent de folie a soufflé et les vers de la fable de la fontaine se sont mélangés, remettez la fable dans son ordre original :

 


Tout l'été,


Se trouva fort dépourvue

Pas un seul petit morceau

Elle alla crier famine

Chez la Fourmi sa voisine,

Quand la bise fut venue.

Quelque grain pour subsister

La priant de lui prêter

De mouche ou de vermisseau.

Intérêt et principal.

Avant l’août, foi d'animal,

Eh bien! dansez maintenant.

La Fourmi n'est pas prêteuse,

Nuit et jour à tout venant,

Je chantais, ne vous déplaise.

Je vous paierai, lui dit-elle,

Jusqu'à la saison nouvelle.

C'est là son moindre défautt.

Dit-elle à cette emprunteuse
 

Que faisiez-vous au temps chaud ?

La cigale ayant chanté.


Vous chantiez ? j'en suis fort aise,


retour index

Carrefour Reconnaissance vocale


 

Lien vidéo Reconnaissance vocale . Comment ça marche


 

Développement Monitorat Université Paris

Définition :

La reconnaissance vocale ou (Automatic Speech Recognition ASR) est une technologie de transcription d'un système «phonatoire organique»exploitable par une machine. La reconnaissance vocale couplée à des méthodes de synthèse vocale, de commande vocale, d'identification vocale, et de compréhension forme un élément d'une interface homme-machine idéale (10 fois plus de quantitéd'information qu'avec une saisie clavier, confort...). La reconnaissance vocale fait partie de la branche traitement de la parole.

 

DOMAINE:

La reconnaissance vocale peut se rattacher à de nombreux pans de la science: traitement automatique des langues, linguistique, théorie des langages formels, théorie de l’information, traitement du signal, réseaux neuronaux, intelligence artificielle .

HISTORIQUE:Les travaux sur la reconnaissance vocale datent du début du XXesiècle. Le premier système pouvant être considéré comme faisant de la reconnaissance vocale date de 1952. Ce système électronique développépar Davis, Biddulph, and Balashek aux laboratoires Bell Labs était essentiellement composé de relais et ses performances se limitaient à reconnaître des chiffres isolés. La recherche s'est ensuite considérablement accrue durant les années 70 avec les travaux de Jelinek chez IBM (1972-1993). Aujourd'hui, la reconnaissance vocale est un domaine à forte croissance grâce à la déferlante des systèmes embarqués.

 

PRINCIPE DE BASE:

Une phrase enregistrée et numérisée est donnée au programme de reconnaissance vocale. Dans le formalisme ASR, le découpage fonctionnel est le suivant :le traitement acoustique (front-end) permet principalement d'extraire du signal de parole une image acoustique la plus significative possible sur des tranches de temps d'environ 30ms. Cette image se présente sous la forme d'un vecteur de caractéristiques (features extraction) de 10 à 15 composantes principales, auxquelles sont ajoutées les différences de premier et second ordre pour obtenir une taille de 30-45 en final

Le traitement acoustique (front-end) vise ànumériser le signal de parole sous forme de vecteurs acoustiques qui constituent les données d'observation pour le système de reconnaissance. On utilise pour cela les techniques de traitement du signal: on découpe le signal en tranches de 30ms en procédant pour chaque tranche à un décalage de 10ms (technique de fenêtrage de hamming) afin d'obtenir 10ms de données significatives pour chaque vecteur.

Le signal est alors numérisé et paramétré par une technique d'analyse fréquentielle utilisant les transformées de Fourier (par exemple MFCC (Mel-Frequency Cepstral Coeffcients).

L'apprentissage automatique qui réalise une association entre les segments élémentaires de paroles et les éléments lexicaux. Cette association fait appel à une modélisation statistique entre autre par modèles de Markov cachés (HMM, Hidden Markov Models) et/ou par réseaux de neurones artificiels (ANN, Artificial Neural Networks).

La reconnaissance (back-end) qui en concaténant les segments élémentaires de paroles précédemment appris reconstitue le discours le plus probable. Il s'agit donc d'une correspondance de motif (pattern matching) temporelle, réalisée souvent par l'algorithme de déformation temporelle dynamique (DTW).

 

LES MODELES :

Un tel système s'appuie sur 3 modèles principaux:

Modèle acoustique:ce modèle est capable, àpartir du signal acoustique, plus précisément du résultat du traitement acoustique, de donner la probabilitéque le signal corresponde à chacun des phonèmes

Modèle de prononciation:ce modèle donne pour chaque mot du vocabulaire la ou les prononciations possibles au niveau phonétique avec des probabilités associées.

Modèle de langage:ce modèle donne pour chaque suite de mots sa probabilitédans le langage cible. La combinaison de ces trois modèles permet de calculer pour toute suite de mots la probabilitéq ue le signal sonore lui corresponde. Effectuer la reconnaissance, souvent appelée décodage, consiste à trouver celle qui a la probabilitéla plus élevée.

 

CLASSIFICATION :

Un système de reconnaissance vocale se classifie par un petit nombre de paramètres appelés modes de reconnaissance qui sont corrèles aux difficultés suivantes: Variabilité inter et intra-locuteur: Les systèmes mono locuteurs (en anglais speaker dependant) effectuent un apprentissage in situ des mots. Les systèmes multi locuteurs (en anglais speaker independant) sont capables de reconnaître un corpus fixe (50 mots environs) quel que soit le locuteur.

Les systèmes monolocuteurs sont les plus répandus et tendent notamment à se généraliser grâce à la synthèse Text to speech qui évite la phase d'apprentissage naturel du discours. Les systèmes peuvent travailler sur de la parole continue (en anglais continuous speech), des mots isolés (isolated word) ou encore des mots clefs (key spotting).

 

PERFORMANCE :

Les performances brutes d'un moteur de reconnaissance vocale sont souvent mesurées en taux d'erreur de mots (Word error rate). On peut, réciproquement, évaluer le taux de succès. Voici quelques résultats en termes de taux d'erreur, pour le français:

Textes lus (BREF, système ancien): 8-9%

Emissions de radio (campagne ESTER): 10,3%

Conversations téléphoniques entre gens ne se connaissant pas: 33%

Conversations téléphoniques entre gens se connaissant: 70+%

 

LOGICIELS EXISTANTS :

HTK Logiciel développé au CUED (USA)

Sphinx 4 Logiciel développé au CMU (USA)

teliSpeech Logiciel professionel de telisma (France)

Logiciel professionnel de G2 Speech (Européen)

 

Dragon naturally Speaking Logiciel professionnel de Scansoft Nuance (France)

 

Lien vidéo Dragon

 

Reconnaissance vocale Crescendo Logiciel professionnel dédié au secteur médical (Fr)

MacSpeech Reconnaissance vocale pour Macintosh

ALIZE Plateforme développée au Laboratoire Informatique d'Avignon (LIA)

Reconnaissance vocale intégrée à Microsoft Windows Vista

ASSISTANTS PERSONNELS

Les systèmes de reconnaissances vocale modernes utilisent des modèles du langages qui peuvent nécessiter des gigabytes de mémoire ce qui les rend impraticables, en particulier sur les équipements mobiles. Pour cette raison, la plupart des systèmes de reconnaissance vocale modernes sont en fait réalisé par des serveurs distants et nécessitent une connexion internet et l'envoi à travers le réseau du contenu vocal.

  • Cortana (Microsoft)

 

Lien vidéo Cortana

Cortana (assistant personnel intelligent)

Cortana





Informations

 

Développé par

Microsoft

 

Première version

20141

 

Dernière version

(30 août 2015)

 

Système d'exploitation

Microsoft Windows

 

Environnement

Windows 10
Windows Phone
Xbox One
Android (béta)

Langues

Multilingues

Type

Assistant personnel intelligent

Licence

Microsoft EULA

Site web

cortana.uservoice.com

Cortana est le nom de l'assistant personnel intelligent développé par Microsoft pour sa plateforme Windows Phone à partir de la version 8.1 et désormais sur Windows 102. Cortana existe également sur Android et iOS (en Bêta et uniquement dans certaines langues) sous la forme d'une application et est intégré avec le système CyanogenMod. Cependant, Microsoft ne voit plus Cortna comme une concurrente direct des assistants Siri d'Apple, Bixby de Samsung, et Google Assistant. Cortana collabore également avec Alexa de Amazon, qui prévoit de l'intégrer en tant qu'extension.

Cortana repose principalement sur Bing, le moteur de recherche de Microsoft, ainsi que sur les données présentes sur le smartphone de l'utilisateur (contacts, courriels, calendrier, etc.)3. Les résultats sont retournés par Bing mais aussi par des services externes, comme Foursquare pour la géolocalisation4. Cortana remplace d'ailleurs dans Windows Phone 8.1 l'interface du moteur de recherche de la version 8.0 du système d'exploitation mobile de Microsoft par celle d'un double cercle bleu animé qui sert d'identité au service.

Cortana a été annoncé à la conférence Build qui s'est tenue du 2 au 4 avril 20145.

« Cortana » n'était à l'origine que le nom de code de cet assistant, en référence à l'IA Cortana du jeu Halo dont Microsoft détient les droits, et a finalement été conservé officiellement après que de nombreux internautes en ont fait la demande6.

Fonctionnalités

La particularité de Cortana réside dans l'utilisation d'un « bloc-notes »7 dans lequel l'utilisateur peut renseigner et consulter diverses informations telles que ses centres d'intérêt, ses tâches, ses « heures tranquilles », ses lieux favoris, ses rappels, synchronisés entre appareils Windows et Android mais aussi le nom par lequel il souhaite être appelé et en vérifier la bonne prononciation. Grâce à Microsoft Traduction, Cortana est capable de traduire un texte avec la demande « Traduis ... en anglais. », par exemple pour la traduction vers l'Anglais. La fonction de recherche musicale n'est plus disponnible depuis l'arrêt du service en ligne de Microsoft, Groove Musique car Cortana reposait sur son catalogue pour trouver les morceaux.

Aux États-Unis, Cortana, grâce à Bing, est capable de prédire les résultats des matchs de NFL[réf. souhaitée].

Disponibilité

Cortana est disponible en français avec Windows 108. Il est aussi disponible sur Windows Phone 8.1 et ultérieur, mais les langues disponibles sont limitées à la langue anglaise aux États-Unis en version bêta (Windows Phone 8.1 et ultérieur) et en France, au Royaume-Uni, en Inde, au Canada et en Australie en version alpha (Windows Phone 8.1 Update 1 et ultérieur)9. Il est aussi disponible en allemand, en italien et en espagnol en version alpha, mais uniquement réservée aux adhérents du programme « Preview for Developers ».

Par ailleurs, une version spéciale de l'assistant personnel intelligent baptisée Xiao Na est disponible en Chine.

 

 

 

  • Siri (Apple)

Siri (logiciel)



Créateur

Apple

 



Développé par

Apple, SRI International, EPFL

Première version

2011

 



Dernière version

iOS 11.1 (31 Octobre 2017)

Version avancée

iOS 11.2 beta 2 (6 Novembre 2017)

Écrit en

Objective-C

 



Système d'exploitation

IOS, iOS 6 (en), iOS 7 (en), iOS 8 (en), iOS 9 (en), iOS 10, macOS Sierra, MacOS High Sierra, iOS 11 (en), watchOS, tvOS et iOS 12

 

 

Siri est une application informatique de commande vocale qui comprend les instructions verbales données par les utilisateurs et répond à leurs requêtes. Développée par la société américaine Apple et qualifiée d'assistant personnel intelligent ; elle a été présentée à la presse le 4 octobre 2011.

L'interface homme-machine de Siri repose sur la reconnaissance vocale avancée, le traitement du langage naturel (oral) et la synthèse vocale. Compatible uniquement avec les téléphones d'Apple à partir de l'iPhone 4s, toutes ses tablettes à partir de l'iPad 3 et les iPod touch depuis la 5e génération, elle nécessite au minimum iOS 6 sortie à l'automne 2012.

Les Mac ayant un micro (intégré ou pas) utilisant macOS et les Apple TV de 4ème génération peuvent aussi l'utiliser depuis peu.

Certains auteurs considèrent qu'avec Google Now et Cortana, Siri est l'un des indices d'une large pénétration de la « vie numérique »1 et du monde réel par de premières formes d'intelligence artificielle2, non sans limites3, dangers potentiels et questions éthiques (notamment, car ces assistants sont conçus pour deviner nos intentions, et ils manipulent voire gèrent ou partagent de nombreuses données personnelles et pourraient influencer nos choix4,5) ; pour le meilleur et potentiellement le pire si l'on n'apprend pas à en maitriser les risques selon Stephen Hawking et d'autres dans un billet publié en 2014 par le journal The Independent6.

Présentation

Disponible dès son lancement (en version bêta) en octobre 2011 en anglais (américain, britannique et australien), allemand et français, l'application sera également proposée en japonais, chinois, coréen, italien et espagnol en 2012, mais à son lancement, seule la version en langue anglaise pouvait bénéficier de certaines fonctionnalités, comme la gestion orale de l'application « Plans », et donc des itinéraires et de l'état du trafic. Lors de la sortie d'iOS 7,

Siri n'est plus considéré comme une version bêta. Contrairement à la plupart des autres systèmes de reconnaissance vocale classiques, Siri comprend et utilise le langage naturel, l'utilisateur peut donc s'exprimer naturellement sans avoir à prononcer des mots spécifiques et Siri peut répondre de façon tout à fait naturelle aussi. L'utilisation de Siri requiert une connexion internet mobile haut débit à cause de la dépendance de Siri aux serveurs d'Apple.

Pour démarrer l'application manuellement, il faut maintenir le bouton principal appuyé deux secondes, ou maintenir le bouton latéral appuyé pendant 2 secondes sur iPhone X. Tandis que pour démarrer l'application à la voix, l'appareil doit avoir l'option activée dans le réglage général et être connecté par câble (pour les versions inférieures à iOS 9). Ensuite, il faut prononcer "Dis, Siri".

Apple utilise le codec libre Speex dans ce logiciel7.

Voix anglaise masculine (Royaume-Uni) : Jon Briggs8.

Voix française masculine : Cyril Mazzotti9 jusqu'à iOS 6 (jusqu'à iOS 7 sur VoiceOver et le contrôle vocal).

Naissance de Siri, assistant personnel

L'application Siri est proposée gratuitement en février 2010 dans l'App Store d'Apple en tant qu'application iOS indépendante18 avant d'être achetée par Apple le 28 avril 201010 suite à un appel téléphonique de Steve Jobs en personne à Dag Kittlaus.11. Peu avant cette date, Siri Inc. avait annoncé que son logiciel serait bientôt disponible pour les BlackBerry et pour les téléphones sous Android. Le rachat de la technologie d'intelligence artificielle par Apple a de fait sonné le glas de l'interopérabilité de la technologie, conférant ainsi un net avantage commercial à l'iPhone 4S au moment de sa sortie.

Le 5 octobre 2011, le lendemain de la mort de Steve Jobs, Tim Cook alors directeur général d'Apple présente la keynote qui révèle notamment l'iPhone 4S : si elle déçoit les amateurs d'Apple qui attendaient l'iPhone 5, elle révèle Siri très remarquée et commentée19.

Le 27 novembre 2012, le constructeur automobile Chevrolet annonce qu’il intégrera l’application Siri Eyes Free dans son modèle Chevrolet Spark, devenant ainsi le premier constructeur automobile à embarquer le système de commande vocale d’Apple dans l’un de ses véhicules20.

Fonctions

Siri permet de réaliser plusieurs interactions entre la voix de l'utilisateur et les applications du système iOS comme le navigateur Safari, les applications de SMS, l'application téléphone, l'application Mail ou encore l'application de cartographie Plans. Voici quelques exemples de ces interactions :

  • Effectuer un appel avec l'application Téléphone ;

  • Dicter un SMS à envoyer ;

  • Dicter une recherche à faire sur le web avec Safari ;

  • Jouer un morceau de musique avec l'application Musique ;

  • Lancer un itinéraire avec Plans ;

  • Activer ou désactiver certaines options simples comme le Wi-Fi, les données mobiles, le Bluetooth ou encore activer le mode avion (ce qui désactivera par conséquent Siri) ;

  • Chercher des restaurants à proximité ou encore des séances de cinéma.

  • Discuter.

 

 

 

  • Google Now (Google)

Google Now

 

Cet article est une ébauche concernant les télécommunications.

 

La tablette Nexus 7 utilisant Google Now.



Informations

Développé par

Google

Première version

9 juillet 2012

Dernière version

(17 mai 2016)

Version avancée

Inconnue

État du projet

Arrêté

Système d'exploitation

Jelly Bean et iOS

 



Environnement

Android et iOS

Langues

Multilangue

Type

Assistant personnel intelligent

Site web

http://www.google.com/landing/now/

Chronologie des versions

Google Assistant

Google Now est un assistant personnel intelligent qui prend la forme d'une application Android et iOS basée sur la reconnaissance vocale, le traitement du langage naturel par oral ainsi que sur la synthèse vocale pour apporter des réponses aux requêtes des utilisateurs à l'oral et à l'écrit, faire des recommandations et effectuer des actions en déléguant certaines requêtes à des services en ligne. Google Now est inclus par défaut à partir de la version 4.1 d'Android (« Jelly Bean »), et a fonctionné pour la première fois sur le Galaxy Nexus.

Depuis mai 2018, Google Now est remplacé1 par Google Assistant.

Fonctionnement

Google Now Launcher

L'interface de Google Now est composé d'une barre de recherche et d'un ensemble de « cartes » qui apportent des réponses contextualisées et illustrées à certaines requêtes des utilisateurs. Sont pris en compte à l'heure actuelle :

  • la conversion de monnaies

  • la définition et la traduction de mots

  • les horaires de vols (via Gmail ou Google Calendar)

  • les programmations de salles de cinéma

  • les prochains rendez-vous (via Google Calendar)

  • les lieux (via Google Maps)

  • les horaires de transports en commun (via Google Maps)

  • les alertes trafic (via Google Maps)

  • les résultats sportifs

  • les trajets entre domicile et lieu de travail (via Google Maps)

  • les cours de bourse (Google Finance)

  • la météo

  • les nouveaux articles des sites que l'utilisateur consulte fréquemment

  • l'état de livraison d'un colis (via Gmail).

Quand ce n'est pas possible, l'application renvoie des résultats classiques issus de la recherche Google. L'application se base sur les requêtes formulées le plus régulièrement par l'utilisateur et sur le Knowledge Graph pour proposer des informations pertinentes avant même qu'il ne les demande.

Historique

  • Fin 2011, des rumeurs affirment que Google prépare un assistant virtuel semblable à Siri (développé par Apple), sous le nom de code « Majel » (d'après Majet Barrett, la femme de Gene Roddenberry connue pour avoir prêté sa voix aux ordinateurs de la série Star Trek2) ou « Assistant ».

  • Le 7 juin 2012, Google Now est révélé lors de la présentation d'Android 4.1 lors de la conférence I/O3.

  • Début avril 2018, Google annonce l'arrêt1 de Google Now et son remplacement par Google Assistant.

Cela n’empêche pas des constructeurs de proposer leur propres assistants vocaux sur Android, comme Samsung avec S Voice et LG avec Quick Voice (à partir de juin 2012 et uniquement en Corée du Sud pour ce dernier).

 

 

 

 

 

Récapitulatif


 

  • Machine learning

C'est l'apprentissage automatique qui est une branche de l'intelligence artificielle.

On réalise un algorithme d'apprentissage sur les données pour produire un modèle (entrainement).

Les mathématiques sont utilisées en particulier les statistiques et probabilités ainsi que l'informatique.

L'apprentissage est fait par renforcement, c'est à dire des récompenses en fonction des actions correctes.

Il y a des critères de performance et la fonction de décision se fait par régression linéaire.


 

  • Réseau de neurones artificiels

Ce sont des des modèles paramétriques pour la construction de modèles fléxibles.

Les champs d'application son t :

L'annotation d'image

La reconnaissance vocale


 

  • Chaines de Markov

En résumé, elles étudient la probabilité de passage d'un état à un autre pour un élément avec un pas de temps.


 

 

retour index