L'évolution de la technologie tactile

  • Michael Cain
  • 0
  • 3984
  • 727
Publicité

Dans l'espace technologique, le temps passe vite; Il y a un peu plus de sept ans, les smartphones tels que nous les connaissons n'existaient pas. Aujourd'hui, ils constituent le secteur de la technologie le plus rentable sur Terre (et tellement répandu qu'il s'agit en fait d'un problème. Comment remédier à la dépendance des smartphones? Cure Smartphone Addiction (désintoxication d'un smartphone) La dépendance d'un smartphone est réelle et vous pourriez être affectée.). En conséquence, il est facile de perdre de vue à quel point les technologies que nous utilisons sont vraiment révolutionnaires et importantes..

Les écrans tactiles et les interfaces multitouch font désormais partie intégrante du langage fondamental de l'interaction homme-machine. Toutes les futures interfaces utilisateur porteront avec elles les échos des interfaces tactiles, de la même manière que le clavier et la souris ont modifié de manière permanente le langage des interfaces qui les ont suivies. À cette fin, nous allons aujourd’hui prendre un moment pour parler de la façon dont les écrans tactiles et les interfaces qu’ils permettent ont été créés, et où ils vont maintenant..

Tout d’abord, prenez un moment pour regarder cette vidéo:

Écoutez le son du public quand il est témoin Glisser pour déverouiller et glisser pour faire défiler pour la première fois. Ces personnes ont été complètement époustouflées. Ils n'ont jamais rien vu de tel auparavant. Steve Jobs aurait tout aussi bien pu passer à travers l'écran et sortir un BLT de l'éther, en ce qui le concerne. Ces interactions tactiles de base que nous prenons pour acquis étaient totalement nouvelles pour elles et avaient une valeur évidente. Alors, comment en sommes-nous arrivés là? Ce qui devait arriver pour arriver à ce jour particulier en 2007?

L'histoire

Étonnamment, le premier appareil à écran tactile était capacitif (comme les téléphones modernes, plutôt que la technologie résistive des années 1980 et 1990) et remonte aux environs de 1966. Il était un écran radar, utilisé par le Royal Radar Establishment pour contrôler le trafic aérien, et a été inventé par EA Johnson, à cette fin. L'écran tactile était volumineux, lent, imprécis et très coûteux, mais (à son crédit, il est resté utilisé jusqu'aux années 1990). La technologie s'est révélée en grande partie impraticable et peu de progrès ont été réalisés pendant presque une décennie..

La technologie utilisée dans ce type d'écran capacitif monotouch est en réalité assez simple. Vous utilisez une feuille d'un matériau conducteur transparent, vous y faites passer un petit courant (créant un champ statique) et mesurez le courant à chacun des quatre coins. Lorsqu'un objet comme un doigt touche l'écran, l'espace entre celui-ci et la plaque chargée forme un condensateur. En mesurant le changement de capacité à chaque coin de la plaque, vous pouvez déterminer où l'événement tactile se produit et le signaler à l'ordinateur central. Ce type d'écran tactile capacitif fonctionne, mais n'est pas très précis et ne peut pas enregistrer plus d'un événement tactile à la fois..

Le prochain événement majeur de la technologie des écrans tactiles a été l’invention de l’écran tactile résistif en 1977, une innovation de la société Elographics. Les écrans tactiles résistifs fonctionnent en utilisant deux feuilles de matériau transparent souple, des lignes conductrices gravées sur les deux, dans des directions opposées. Chaque ligne reçoit une tension unique et l'ordinateur alterne rapidement entre les tests de tension de chaque feuille. Les deux ensembles de lignes (horizontale et verticale) peuvent être testés pour la tension, et l'ordinateur alterne rapidement entre le courant alimentant l'horizontale et le test du courant dans la verticale, et inversement. Lorsqu'un objet est appuyé contre l'écran, les lignes des deux feuilles sont en contact et les tensions fournies par les deux combinaisons indiquent les lignes verticales et horizontales activées. L'intersection de ces lignes vous donne l'emplacement précis de l'événement tactile. Les écrans résistifs ont une très grande précision et ne sont pas affectés par la poussière ou l'eau, mais paient ces avantages avec un fonctionnement plus fastidieux: les écrans ont besoin de beaucoup plus de pression que de capacités (rendant les interactions par glissement avec les doigts impraticables) et ne peuvent pas enregistrer plusieurs contacts événements.

Cependant, ces écrans tactiles se sont révélés être à la fois assez bons et assez économiques pour être utiles, et ont été utilisés pour diverses applications de terminaux fixes, notamment les contrôleurs de machines industrielles, les distributeurs automatiques de billets et les appareils de caisse. Les écrans tactiles n'ont pas vraiment pris leur essor avant les années 1990, toutefois, lorsque les appareils mobiles ont commencé à arriver sur le marché. Le Newton, le premier assistant numérique personnel (PDA) publié en 1997 par Apple, Inc., était un appareil alors révolutionnaire qui combinait une calculatrice, un calendrier, un carnet d'adresses et une application de prise de notes. Il utilisait un écran tactile résistif pour faire des sélections et saisir du texte (via une reconnaissance manuscrite précoce), et ne supportait pas la communication sans fil..

Le marché des PDA a continué à évoluer au début des années 2000, avant de fusionner avec les téléphones portables pour devenir le premier smartphone. Les exemples comprenaient les premiers appareils Treos et BlackBerry. Cependant, ces appareils dépendaient du stylet et tentaient généralement d'imiter la structure du logiciel de bureau, qui devenait encombrante sur un petit écran tactile actionné par le stylet. Ces appareils (un peu comme Google Glass, Google Glass Review et Giveaway, Google Glass Review et Giveaway, nous avons eu la chance d'obtenir une paire de Google Glass pour révision, et nous la donnons! Aujourd'hui) étaient exclusivement du domaine des fous d'énergie. et les hommes d'affaires qui avaient réellement besoin de lire leur courrier électronique en déplacement.

Cela a changé en 2007 avec l'introduction de l'iPhone que vous venez de regarder. L'iPhone a introduit un écran multi-touch précis et peu coûteux. Les écrans multipoints utilisés par l'iPhone reposent sur une matrice de fils à détection de capacité soigneusement gravée (plutôt que sur les modifications apportées à la capacité totale de l'écran, ce schéma permet de détecter quels puits individuels construisent une capacité). Cela permet une précision considérablement plus grande et permet d'enregistrer plusieurs événements tactiles suffisamment éloignés (permettant des gestes tels que "pincer pour zoomer" et de meilleurs claviers virtuels). Pour en savoir plus sur le fonctionnement de différents types d’écrans tactiles, consultez notre article sur le sujet Écrans tactiles capacitifs ou résistifs: quelles sont les différences? Écrans tactiles capacitifs vs résistifs: quelles sont les différences? Les appareils à écran tactile capacitifs et résistifs sont partout aujourd'hui, mais quelle est la différence et comment fonctionnent-ils? .

La grande innovation apportée par l'iPhone est toutefois l'idée d'un logiciel physicaliste. Les objets virtuels dans iOS obéissent à des intuitions physiques - vous pouvez les faire glisser et les faire glisser, leur masse et leur frottement. C'est comme si vous avez affaire à un univers d'objets à deux dimensions que vous pouvez manipuler simplement en les touchant. Cela permet des interfaces utilisateur beaucoup plus intuitives, car tout le monde a une intuition pré-apprise sur la manière d’interagir avec des objets physiques. C’est probablement l’idée la plus importante dans l’interaction homme-ordinateur depuis l’idée de Windows et elle s’est répandue: pratiquement tous les ordinateurs portables modernes prennent en charge les gestes à touches multiples. Comment activer facilement le défilement à deux doigts dans les ordinateurs portables Windows Comment activer facilement le défilement à deux doigts dans Windows Les ordinateurs portables, et beaucoup d'entre eux ont des écrans tactiles.

Depuis le lancement de l'iPhone, de nombreux autres systèmes d'exploitation mobiles (notamment Android et Windows Phone) ont reproduit avec succès les bonnes idées fondamentales d'iOS et, à bien des égards, les ont dépassées. Mise à niveau vers Windows Phone 8.1 et profitez d'un nouvel App Store Interface! Passez à Windows Phone 8.1 et profitez d'une nouvelle interface dans l'App Store! L'une des nombreuses modifications apportées à la mise à niveau de Windows Phone 8.1 est la refonte de l'App Store. Cette amélioration facilite beaucoup la gestion de vos applications, comme vous le verrez dans un instant. . Cependant, l'iPhone a le mérite de définir le facteur de forme et le langage de conception avec lesquels tous les futurs appareils fonctionneraient..

Et après

Les écrans tactiles multiples continueront probablement à s’améliorer en termes de résolution et de nombre d’événements tactiles pouvant être enregistrés simultanément, mais l’avenir est en termes de logiciels, du moins pour l’instant. La nouvelle initiative de Google en matière de conception de matériel vise à limiter radicalement le type d'interactions d'interface utilisateur autorisées sur ses différentes plates-formes, en créant un langage intuitif et standardisé pour l'interaction avec les logiciels. L'idée est de prétendre que toutes les interfaces utilisateur sont constituées de feuilles de papier magique, qui peuvent se réduire ou s'agrandir et être déplacées, mais ne peuvent pas inverser ni effectuer d'autres actions qui ne seraient pas possibles dans le facteur de forme du périphérique. Les objets que l'utilisateur tente de supprimer doivent être déplacés hors de l'écran. Lorsqu'un élément est déplacé, il y a toujours quelque chose en dessous. Tous les objets ont une masse et des frottements et se déplacent de manière prévisible.

À bien des égards, la conception matérielle est un raffinement supplémentaire des idées introduites dans iOS, garantissant que toutes les interactions avec le logiciel ont lieu dans le même langage et dans le même style. que les utilisateurs n'aient jamais à traiter avec des paradigmes d'interaction contradictoires ou non intuitifs. L'idée est de permettre aux utilisateurs d'apprendre très facilement les règles d'interaction avec les logiciels et de pouvoir faire confiance aux nouveaux logiciels qui fonctionneront de la manière attendue..

Sur un plan plus large, les interfaces homme-machine approchent le prochain grand défi, qui consiste à supprimer l'écran tactile de l'écran, à savoir le développement d'interfaces immersives conçues pour fonctionner avec les plateformes de réalité virtuelle et d'AR telles que l'Oculus Rift (lire notre revue Oculus Revue du kit de développement Rift et cadeau Oculus Revue du kit de développement Rift et cadeau L'Oculus Rift est enfin arrivé et fait tourner les têtes (littéralement) dans toute la communauté des joueurs. nous aimons…) et les futures versions de Google Glass. Rendre les interactions tactiles spatiales, sans que les gestes requis deviennent fatigants (“bras de gorille”) est un problème réellement difficile, et que nous n’avons pas encore résolu. Nous voyons les premiers indices de ce à quoi ces interfaces pourraient ressembler à l'aide de dispositifs tels que Kinect et le mouvement à pas de géant (lire notre revue Examen du mouvement de pas à pas et Giveaway Examen de mouvement à pas de géant et cadeau. L'avenir, ce sont les contrôles gestuels, ils voudraient nous faire croire. tous devraient toucher l'écran de votre ordinateur, agiter les bras devant votre Xbox et se frayer un chemin vers une victoire virtuelle dans le sport…), mais ces appareils sont limités car le contenu qu'ils affichent est toujours bloqué sur un écran. Il est utile de faire des gestes en trois dimensions pour interagir avec un contenu en deux dimensions, mais cela n’a pas le même confort intuitif que lorsque nos gestes 3D interagissent avec des objets 3D qui semblent partager physiquement l’espace avec nous. Lorsque nos interfaces pourront le faire, nous aurons le moment idéal pour l'iPhone en matière d'AR et de VR et nous pourrons vraiment commencer à élaborer sérieusement les paradigmes de conception du futur..

La conception de ces futures interfaces utilisateur bénéficiera du travail effectué sur le toucher: les objets virtuels auront probablement une masse et des frictions, et imposeront des hiérarchies rigides de profondeur. Cependant, ces types d'interfaces présentent leurs propres défis: comment saisir du texte? Comment empêchez-vous la fatigue des bras? Comment éviter de bloquer la vue de l'utilisateur avec des informations superflues? Comment attrapez-vous un objet que vous ne pouvez pas sentir?

Ces problèmes ne sont toujours pas résolus et le matériel nécessaire pour faciliter ce type d'interfaces est encore en développement. Pourtant, il sera bientôt là: certainement moins de dix ans et probablement moins de cinq ans. Dans sept ans, nous pouvons revenir sur cet article de la même manière que sur le discours d’aujourd’hui sur iPhone, et nous demander comment nous aurions pu être aussi étonnés par des idées aussi évidentes..

Crédits d'image: “SterretjiRadar”, par Ruper Ganzer, “singulier”, par Windell Oskay, “Android mange Apple”, par Aidan




Personne n'a encore commenté ce post.

De la technologie moderne, simple et abordable.
Votre guide dans le monde de la technologie moderne. Apprenez à utiliser les technologies et les gadgets qui nous entourent chaque jour et à découvrir des choses intéressantes sur Internet.