Apples 3D Touch prøver å løse det største problemet på mobilen

Men kan trykkfølsomhet virkelig slå Googles tankelesende AI-er?

La oss si at du vil ta en selfie, eller hilse på en Uber, eller sende en ny e -post. Hvor mange trykk tar det deg? Hvor mange skjermer må du besøke? Det avhenger av hva du prøver å gjøre, men svaret kommer til å være mer enn ett. Dette er mobilens grunne brukergrensesnittproblem; alle fra Google til Apple føler klemme.

Mobiloperativsystemer er designet for å være grunne: for det meste tar alt du gjør på en smarttelefon eller nettbrett deg til en annen skjerm for å gjøre det. Det var greit i de første dagene av mobilen, da apper var single-servering som en innrømmelse for skjermstørrelse og den relativt dårlige naturen til tidlige smarttelefoner. Siden Apple ga ut den første iPhone, har enheter blitt kraftigere, og følgelig har det som folk forventer å kunne gjøre med dem eksplodert. Likevel er mobile enheter fortsatt låst i dette ett trykk, en skjerm, et handlingsparadigme.

1144 engel nummer kjærlighet

Avslørt onsdag som en integrert funksjon i den nye iPhone 6s og 6s Plus, er 3D Touch Apples forsøk på å løse det grunne brukergrensesnittet på iOS. Ideen er enkel: berøringsskjermen din kan nå oppdage nøyaktig hvor hardt du trykker på den, multitouch-ekvivalenten til et høyreklikk på skrivebordet. Ved å trykke på skjermen lenger, kan du samhandle med den kontekstuelt.



For eksempel viste Apple hvordan du enkelt kunne ringe en kontakt på iPhone, bare ved å trykke hardt på telefon-appikonet og deretter trykke på kontaktens navn i en ny meny som dukker opp. Slipp fingeren og menyen forsvinner. Men dette kan brukes til mye: forhåndsvise en e -postkobling i Safari uten å bytte app, for eksempel, eller bestille en Uber uten å forlate startskjermen, eller kikke på en kommende kalenderavtale.

skumleste hjemsøkte husene i Wisconsin

I begynnelsen skal 3D Touch låses til Apples nye iPhones, noe som er litt latterlig: den nye iPad Pro, som er rettet mot designere og støtter en pekepenn (kalt Apple Pencil) som bare er ber å samhandle med en trykkfølsom skjerm, er den mer åpenbare passformen. Men uansett. Om to eller tre år vil hver iPhone og iPad Apple selger ha 3D Touch.

Hvor mye dette vil endre kjerne -UX for iOS gjenstår å se. Apples SVP for design, Alan Dye, fortalte Bloomberg de vil at 3D Touch skal føles uunngåelig. Will 3D Touch gir den samme slags intuitive taktile følelsen som multitouch gjør, eller vil det være iOS -ekvivalenten med hurtigtaster eller høyreklikk på OS X: en funksjon som bare mestres av strømbrukere (eller i det minste folk som bruker massevis av tid på enhetene deres)? Tiden vil vise, men til syvende og sist vil det sannsynligvis være åpenbart hvor trygg Apple er i 3D Touch av hvor enkelt det er å utløse. Brukere vil ikke jakte på uunngåelighet.

Det er også interessant å tenke på hvilke konsekvenser dette kan ha for utviklere. Når hvert appikon bare er en kiling unna å åpne en meny, må måten appikonene er designet på, endre seg? Akkurat nå, hvis en bruker trykker på feil ikon på iOS, vet du fordi feil app åpnes, men 3D Touch -menyer lar brukerne hoppe over startskjermen til en app helt. Hvis to like, fungerende apper begge bruker 3D Touch -menyer for ikonene sine, hvordan sikrer du at brukerne ikke ved et uhell forvirrer menyene på de to appene? Merker du menyen sterkt? (Send en FACEBOOK -melding.) Blir du helt gal med fargene på ikonet ditt, så ingen kan muligens ta feil av en annen? (I så fall kan lilla og gule ikoner gå fra å være en App Store sjeldenhet til de vanligste fargene, og deretter hoppe tilbake igjen.) Eller er dette et problem som du trenger å bekymre deg for i det hele tatt?

har facebook nattmodus

Uansett, det som er spesielt interessant med 3D Touch er hvor annerledes det er enn et annet forsøk på å løse mobilens grunne brukergrensesnitt -problem, Now On Tap. I Googles kommende Android M -operativsystem kan brukere trykke og holde på hjemmeknappen inne i en hvilken som helst Android -app. Derfra prøver Google å gjette hva du vil gjøre videre, og presenterer et dynamisk, AI-drevet kort fylt med mulige oppfølgingshandlinger.

De to tilnærmingene virker veldig forskjellige, men de er begge forsøk på å bryte gjennom mobilens ene skjerm, ett trykk, en actionflaskehals, fra to selskaper med svært forskjellige styrker: en, integrering av maskinvare og programvare, berøring og taktilitet; den andre, data og kunstig intelligens, usynlighet og kontekst. Google kan ikke lett gjøre noe som 3D Touch, fordi de ikke helt kontrollerer maskinvaren til Android -enhetens økosystem. Like måte, mens iOS 9 reduserer gapet mellom Siri og Now On Tap, er Apple ikke i nærheten av å matche Googles ekspertise når det gjelder prediktiv interaksjon drevet av big data og AI.

For at smarttelefoner og nettbrett skal vokse fullt ut, må de bryte det grunne brukergrensesnittet en gang for alle. Spørsmålet er dette: hva føles mer uunngåelig for mobilens fremtid? Apples tilnærming, 3D Touch, et språk for haptiske hurtigtaster som gjør at du lettere kan hoppe mellom oppgavene? Eller Googles dypdatatilnærming, der en AI lærer dine mønstre og intuiderer ditt neste trinn, før du gjør det?

Eller enda bedre, vil begge disse tilnærmingene bli en del av en felles valuta på tvers av alle smarttelefoner? Mine penger er på sistnevnte. På skrivebordet løser hurtigtaster og høyreklikk begge det samme problemet, men hver app har begge deler uansett.