Live-oversettelse kan peke på fremtiden til Apple-briller

Innholdsfortegnelse:

Live-oversettelse kan peke på fremtiden til Apple-briller
Live-oversettelse kan peke på fremtiden til Apple-briller
Anonim

Key takeaways

  • Nye tilgjengelighetsfunksjoner inkluderer direktetekster generert i sanntid, for enhver video eller samtale.
  • Hvis denne funksjonen ikke er laget for Apples ryktede AR-briller, spiser vi den virtuelle emoji-hatten vår.
  • Apple har en historie med å prøve fremtidige produktfunksjoner på nåværende enheter.
Image
Image

Apples nye Live Captions legger til sanntidsteksting til alt, inkludert personen som står foran deg.

Akkurat som Googles konsept AR Glasses, kunngjort denne uken. Apples Live Captions kan ta innkommende lyd og transkribere den umiddelbart. Forskjellen er at Apples versjon vil sendes "senere i år", som sannsynligvis betyr at den vil være i høstens iOS 16-utgivelse. Men den virkelige nyheten her er at dette er Apples mest åpenbare stikk til nå når det gjelder å prøve fremtidige Apple-briller-funksjoner.

"Som en som har to foreldre som begge har problemer med å høre, er dette til stor hjelp," skriver den Apple-sentriske journalisten Dan Moren på sin personlige Six Colors-blogg. "Jeg er nysgjerrig på å se hvor godt funksjonen faktisk fungerer og hvordan den håndterer en stor FaceTime-samtale med mange deltakere; Apple sier at den vil tilskrive dialog til spesifikke høyttalere."

Sleight of Hand

Live Captions, som vi kommer til om et sekund, er langt fra den første AR-brillefunksjonen som Apple har prøvd ut. Det mest åpenbare er inkluderingen av LIDAR-kameraer i iPhones og iPads. Disse skannerne hjelper til med å lage et nøyaktig 3D-kart over verden utenfor og lar iPhone legge 3D-modeller over på den virkelige verden som vises gjennom kameraet.

Jeg er ikke sikker på at vi kan stole bedre på Apples direkteoversettelse enn Googles nye AR-briller, men jeg tror vi kan stole på at konkurransen vil bidra til å skape de beste resultatene.

Så langt har denne teknologien blitt brukt til å la deg forhåndsvise nye Apple-datamaskiner på ditt eget skrivebord, spille AR Lego-spill, teste ut IKEA-møbler i stua og så videre. LIDAR-maskinvare er så absurd overflødig i iPhones at den bare må være der slik at Apple kan finpusse maskinvaren og programvaren for en ekte AR-applikasjon: Apple Glasses.

Det er ikke bare visuell AR heller. AirPods har lagt til pene AR-funksjoner i mange år nå. Det siste, Spatial Audio, lurer hjernen vår til å tro at lyder kommer fra alle rundt oss og er en fin måte å se filmer på eller lytte til avslappende lydlandskap. Det er en flott funksjon, men den vil bli enda bedre når den fungerer med Apples forventede fremtidige brilleprodukt. Å kunne plassere lyder i et 3D-rom for å matche AR-objektene vil virkelig selge illusjonen.

Eller hva med Live Text, iOS 15-teknologien som gjenkjenner og leser tekst i bilder, og live, gjennom iPhone-kameraet? Det er en annen funksjon som er ideell for å lese skilt, menyer og annen tekst gjennom AR-briller.

Liveteksting

Live Captions tar tale fra en FaceTime-samtale, videokonferanseapper, streaming av video og så videre. Telefonen din tar lyden og transkriberer den på farten, og gir undertekster, som vist i denne videoen.

Det er flott, men det som er enda bedre er at ingenting forlater iPhone-en din. Bildetekstene, sier Apple, genereres på enheten i stedet for å bli sendt til en server. Dette er ikke bare mer privat, det er også mye raskere.

"Jeg er ikke sikker på at vi kan stole bedre på Apples direkteoversettelse enn Googles nye AR-briller, men jeg tror vi kan stole på at konkurransen vil bidra til å skape de beste resultatene," sa Kristen Bolig, grunnlegger av SecurityNerd, til Lifewire via e-post."Nå som konkurransen er offentlig og problemene med denne typen teknologi (personvern, nøyaktighet, etc.) er velkjente, vil begge selskapene ikke bare være i et kappløp om å lage det beste produktet først, men også om å skape det produktet som er best løser disse problemene."

Vi forventer også en slags innebygd automatisk oversettelse som du kan få akkurat nå ved å bruke tredjepartsappen Navi til å automatisk oversette FaceTime-samtalene dine, eller kanskje en måte å lagre disse transkripsjonene under intervjuer for enklere tilgang senere.

Vi har lenge hatt utmerkede tilgjengelighetsfunksjoner fra Apple, som lar oss tilpasse iOS-enhetene våre i en nesten absurd grad. Fra å justere skjermen for å gjøre farger og tekst lettere å se, til å kontrollere hele brukergrensesnittet med eksterne enheter, til å få telefonen til å varsle deg når noen ringer på døren, eller en varebil kommer utenfor.

Nå får vi alle fordelene av Apples økte forskning på teknologi for utvidet virkelighet. Vi bryr oss kanskje ikke om IKEA eller LEGO, og vil heller ikke en gang kjøpe et par av Apples sagnomsuste AR-brilleenhet, men det betyr ikke at vi ikke alle kan nyte fruktene av denne forskningen.

Anbefalt: