lundi 15 avril 2013

Les robots et les cinq sens

Robot and Frank (J. Shreier)

Le perfectionnement technologique des robots s'oriente encore et toujours vers une analogie de cette machine avec l'être vivant. Il s'agit notamment de doter les robots des cinq sens dans l'optique de permettre leur interaction avec les êtres humains ainsi que la maîtrise et la perception de l'environnement. 

Jusqu'à quel degré d'analogie la technologie permet-elle actuellement de doter les robots des 5 sens? Pour quels usages concrets ces expériences et prototypes sont-ils créés? Pourquoi recherche-t-on cette analogie entre robot et être humain à travers les différentes perceptions sensorielles?

La question se situe également au niveau du sens des termes utilisés. Peut-on véritablement parler de vue, d'ouïe, d'odorat, de toucher et de goût? Ce sont les êtres humains qui nomme ces phénomènes "ressentir". La perception biologique et la perception mécanique usent peut-être des mêmes processus mais quel sens donner justement à ces "sens" des robots?

Certains être humains souffrent de handicaps qui annulent certaines perceptions sensorielles: la cécité, par exemple. Les robots, dotés de sens, pourraient alors soulager ces handicaps, palier au manque d'un sens. Si on va plus loin, on pourrait aussi imaginer que les robots permettent de décupler les perceptions sensorielles des êtres humains, les dépasser voir les transformer...?

La perception sensorielle des robots : quel est l'état actuel des avancées technologiques?

L'astronaute Dave, 2001, Space Odyssey (S. Kubrick)

Nous attribuons généralement aux machines certains des 5 sens de l'être humain. La machine est capable de percevoir visuellement des objets et son environnement. L'exemple de l'appareil optique, la caméra en est le plus connu. Dans 2001, Space Odyssey (Stanley Kubrick), c'est la vue de l’ordinateur Hall 9000 qui crée tout un jeu de tensions avec l'astronaute Dave mais également l'ouïe puisque ces deux personnages dialoguent lors d'une scène de face à face. L'analogie sensorielle entre êtres humains et machines se place également au niveau du toucher si l'on pense au phénomène du tactile avec les téléphones et les tablettes. L'exemple de l'application Shazam est marquant: l'utilisateur doit effleurer son écran pour que le téléphone reconnaisse et indique le morceau de musique qui est audible. Dans notre quotidien, nombre de machine et de leurs fonctions souligne une attribution des sens de plus en plus perfectionnée aux machines. Mais qu'en est-il de l'avancée technologique de ce phénomène sur les robots? Quelles sont, à l'heure actuelle, les limites de cette analogie des perceptions sensorielles?

L'ordinateur Hall 9000, 2001, Space Odyssey (S. Kubrick)


La vue:

La perception visuelle chez le robots remplit les fonctions de la vue de l'être humain par trois phénomènes: la détection de lumière, la télémétrie à ultra-sons et les caméras. Guidé par la source de lumière, le robot établit sa trajectoire grâce à des détecteurs de lumière. Les ultra-sons, eux, permettent au robot de distinguer les potentiels obstacles qui gêneraient son chemin. Quant à la caméra, elle envoie au "cerveau" du robot des images pixelisées qu'il recevra comme des informations à analyser (comme la présence d'obstacle par exemple). Le chercheur Thierry Vievielle dans son texte "Perception Visuelle en Robotique : Profiter de la Biologie pour faire des Systèmes Adaptatifs", nous explique que la vue du robot se base sur le contour des objets mais aussi sur l'analyse des mouvements. Ces phénomènes sont construits sont des modèles externes, c'est-à-dire que ce sont des modèles de références qui permettent la reconnaissance. Mais il souligne aussi les limites de la perception visuelle chez les robots. Celles-ci se situent au niveau de l'adaptation, à mettre en résonance avec l'idée d'un processus d'apprentissage chez le sujet. En effet, les modélisations internes du robot, c'est-à-dire la perception d'objet spécifique, son éventuelle transformation visuelle dans un autre environnement, ne sont pas encore accessibles à la perception visuelle du robot. Cette "vue" nous permet-elle de dire que le robot est capable de "voir"?

L'ouïe:

La perception auditive chez les robots est un acquis mais le son est un phénomène complexe. En effet, à un même moment, une multiplicité de sons provenant de sources diverses est possible. C'est ce sur quoi se penchent les chercheurs en robotique: permettre au robot de discerner les différents son simultanés mais aussi d'en identifier les sources. Ainsi, les chercheurs du groupe POP (Perception on Purpose) ont eu l'idée d'associer les percepteurs auditifs aux percepteurs visuels avec le robot surnommé Popeye. Deux microphones associés à deux caméras lui permettent de contrôler son environnement acoustique. Aussi, le robot Hearbo créé par le Honda Research Institute Japan est capable d'identifier quatre sons simultanés différents ainsi que leur provenance. Les limites de la perception auditive chez les robots se situe au niveau de la robotique cognitive, encore au stade de la recherche.


Le toucher:

L'acquisition du toucher par les robots est actuellement l'objet de recherche active et de nombreuses expériences. Ces travaux se concentrent sur la création d'une "peau" artificielle, ou "peau" électronique, qui est constituée de cellules tactiles. Cette recherche d'acquisition du sens du toucher par les robots, notamment effectuée au sein de l'Université de Munich, fonctionne grâce à la présence de différents capteurs pouvant remplir les fonctions du tactile. Ainsi, cette "peau" synthétique contient des capteurs de présence, mais aussi de température ainsi qu'un accéléromètre. Actuellement, les avancées technologiques concernent l'ajout des capteurs de pression. Un robot est par exemple capable de sentir le poids d'une mouche (20 mg) ! Un robot est donc capable de reconnaître le poids et la texture des objets, ainsi que de s'emparer de ces derniers (même les plus fragile). Ces recherches connaissent toutefois quelques limites, davantage dues à la différence fondamentale entre les robots et les êtres humains qu'à un manque de moyen technologique. En effet, un robot ne serait pas capable de ressentir la douleur.

L'odorat:

La perception olfactive chez le robot est une réussite relativement récente. C'est au sein de l’Université de Tokyo que des chercheurs ont tenté de les doter de ce sens à partir d’œufs de grenouille ! On ne pourrait se rapprocher davantage de l'analogie entre le monde des vivants et la robotique. Ces œufs de grenouille sont dotés d'un sens inné et très développé de l'odorat, ainsi les robots sont capables d'identifier très précisément les odeurs, à quelques molécules près. La recherche actuelle se concentre pour que le robot détecte le maximum d'informations sur la trajectoire de l'odeur, plutôt que sur la concentration maximale de substance envoyée dans l'air. Ainsi le robot peut détecteur différentes odeurs et leur source même si le vent en perturbe la trajectoire. Cet algorithme développé entre autre par Boris Shraiman et Massimo Vergassola est baptisé "infotaxis" sert à ce que le robot puisse calculer la trajectoire la plus précise possible de l'odeur.

Le goût:

La perception gustative chez le robot  a connu sa première mondiale lors de l'exposition universelle d'Aichi en 2005. Le prototype surnommé robot "diététicien" de la société NEC est en effet le premier a avoir été capable de reconnaître au "goût" divers aliments, ainsi que leur composition. Le fonctionnement de ce robot se base sur des capteurs permettant de mesurer les ondes infrarouges des molécules qui composent un aliment. Bien que son pouvoir de dégustation soit limité, le robot est capable par exemple de goûter et d'identifier différents vins, à la manière d'un contrôleur de qualité. Même s'il peut distinguer plusieurs aliments d'une même catégorie, voire même un même aliment mais de différentes marques, ainsi que leur composition et leur qualité, le robot fonctionne grâce à une base de données qui regroupe les spectres des aliments. La limite de la perception gustative chez le robot est donc due à la multiplicité des aliments qu'il y a à enregistrer dans sa base de données.

Sources:


dimanche 14 avril 2013

Vers le sens d'inclusion



L'être humain est capable de s'adapter très facilement aux différentes situations. Pourtant, être handicapé signifie encore avoir des obstacles pour bien vivre. Les handicaps physiques trouvent des trottoirs et des moyens de transport pas accessibles, les aveugles n'ont pas toujours de braille et les sourdes ne trouvent pas de personnes capacités dans le langage des signes sur les lieux publics pour les repérer. Bref, on peut s'adapter mais il faut quand même une adaptation de la part des lieux qu'on fréquente ou des choses qu'on utilise.

Le questionnement actuel est évoqué par une scène qui se répète tous les matins dans les rues, les salles de cours, les magasins, les bus et les métros. Des millions de personnes sortent leurs appareils tactiles pour se communiquer, jouer ou s'informer dans une application.

Cela nous paraît déjà une action simple et aussi naturelle, cela fait partie de notre quotidien. Par contre, on ne pense pas à chaque capacité que nous est nécessaire pour utiliser ces appareils :
  • On voit les informations sur l'écran
  • On écoute la musique, la radio, les personnes en appel, les vidéos etc
  • On touche l'écran pour utiliser l'appareil et faire tout ce qu'on veut avec lui
Ce sont trois de nos cinq sens qui se présentent comme fondamentaux pour cette utilisation. En revanche, si on ne peut pas utiliser un de ces sens, cela veut dire qu'on trouvera une limitation. Heureusement, lorsque la médecine ne peut pas nous aider, l'homme peut toujours recourir à la technologie pour développer différents appareils pour remplir les lacunes et assurer une plus grande inclusion !

Que ferais-tu, par exemple, pour utiliser un smartphone ou tablette sans pouvoir voir et écouter ? Comment accompagnerais-tu la technologie contemporaine ?

Étant donné l'impossibilité des handicapés d'utiliser les nouvelles technologies, le Design Research Lab de Berlin a créé le Mobile Lorm Glove, un gant qui permet aux sourdes et aveugles d'utiliser des appareils tactiles. 



Il a comme base le « lorm alphabet » un langage qui utilise les points dans la paume et le dos de la main pour composer des mots en faisant de la pression sur certains points déterminés. Lié à l'appareil tactile via Bluetooth, ce gant permettra ces personnes d’accéder à leurs courriers électroniques, lire et écrire des messages.

Dans ce contexte, la technologie s'intègre dans notre vie et notre corps, dans leurs vies et dans leurs corps. Il s'agit de remplir un besoin, mais la technologie elle-même devient un besoin, les actions sans elle ne seront pas les mêmes et encore, les actions sans elle ne seront plus possibles. Elle n'est pas qu'un simple outil, elle en fait partie, elle devient partie, elle se lie aux autres parties interdépendantes de notre corps-machine comme une nouvelle pièce.



Robots : pourquoi veut-on qu'ils nous ressemblent ?




http://www.semageek.com/roboy-une-nouvelle-generation-de-robot-humanoide/
      
     La création des robots s’inspire du vivant, c’est pourquoi certains informaticiens pensent qu’ils pourront, à terme, être dotés d’une conscience. S’est-on jamais demandé si nous-mêmes, êtres vivants, n’avons-nous pas été créés de la même façon ?
La cellule vivante est une machine qui se démultiplie et que l’on alimente par notre nourriture. De la même manière que celles des robots sont alimentées par l’électricité. Le noyau de la cellule est programmable comme un disque dur. Nous sommes des robots biologiques.
Pourquoi avons-nous pensé à créer ces robots ?
Parce-que les robots secondent les hommes. Ils peuvent aider aux tâches ménagères, assurer notre sécurité, nous tenir compagnie, nous soigner (opérations médicales)...

http://www.stargate-fusion.com/forum-stargate/tv/serie-real-human-arte-t20077_1.html

Arte diffuse depuis le 4 avril la série « Real Human », qui met en scène des robots humanoïdes très avancés. Ils sont même appelés des « hubots ».
Pourquoi pousse-t-on de plus en plus l’analogie entre les robots et les humains ?
Alors que la série traite de l’éternelle crainte d’un soulèvement des robots ayant la faculté de dépasser l’être humain, pourquoi continue-t-on à développer ces humanoïdes ? Pourquoi vouloir leur inculquer une personnalité, des émotions ?
Dans un premier temps, les spécialistes pensent que plus les robots nous ressemblent, plus leur communication avec l’être humain pourrait être efficace. S’ils comprenaient notre langage et pouvaient y répondre, les interactions n’en seraient que plus rapides et simplifiées (exemple du GPS).
De la même façon, on voudrait doter les robots d’émotions pour maximiser la compréhension entre les hommes et les machines et leur permettre de créer du lien. S’ils nous ressemblent à l’extérieur, on voudrait également qu’ils nous ressemblent à l’intérieur. Aussi, c’est par la réaction émotionnelle que l’on intègre si un comportement est reproductible. Grâce à cela, les robots pourraient « apprendre », à la manière de certains chiens qui reconnaissent les émotions humaines. C’est donc grâce aux émotions que les robots pourraient « s’auto-programmer ».
Par conséquent, les robots seraient aptes à vivre en société, en adoptant les bons comportements pour s’intégrer (exemple des formules de politesse intégrées dans les machines).
Par ailleurs, même si notre forme n’est pas forcément optimale pour réaliser toutes les tâches, une qualité de l’espèce humaine reste avant tout la polyvalence. C’est l’une des caractéristiques la plus difficile à mettre en oeuvre chez les robots, mais qui passionne la recherche.

Cependant, pour le le professeur Takanishi Atsuo de l’Université Waseda, si la recherche sur le robot humanoïde fascine et évolue tant, c’est parce l’objectif est d’arriver à la hauteur de l’homme. Or, Takanishi Atsuo pense que cet objectif ne sera jamais atteint et restera donc un sujet de recherche inépuisable.


Bibliographie : 

http://humanoides.free.fr/homme_et_la_machine_pensante.html
http://www.slate.fr/story/70279/real-humans-pourquoi-fabriquer-robots-androides
http://www.nippon.com/fr/views/b00901/