Geo-lokalisert 3D i ARKit 4
VIDEO: De nye verktøyene for utvidet virkelighet i ARKit 4 lar deg enkelt integrere 3D-objekter i den virkelige verden, klar til utforskning. I tillegg kan virkeligheten scannes med LiDAR for et liknende møte i mindre rom.
Apple har lansert ARKit 4.
Med den nye versjonen av verktøysettet kan utviklere legge til rette for møtet mellom den virkelige verden, geo-lokalisert, og 3D-innhold.
WWDC 2020: ARKit 4
Apple har i lengre tid satset på utvidet virkelighet - AR - og mange tar dette som et tegn på en fremtidig lansering av et sett med AR-briller (som i rykteverdenen kalles for Apple Glass).
Under WWDC 2020 ble det lansert oppdaterte verktøysett for utviklere som gir en rekke nye funksjoner. Ved en tidligere anledning ble AR-verktøyene gitt mulighet til å legge til rette for at to eller flere brukere kan dele, eller oppleve, den samme 3D-scenen gjennom utvidet virkelighet samtidig.
Nytt nå er at man kan ta 3D-objekter og angi geografiske posisjoner, eller koordinater, slik at disse kan plasseres med geolokasjon. Apple bruker kart-dataene som selskapet har tilegnet seg med LiDAR-scanning til å matche disse mot en iPhone eller iPad ved hjelp av kunstig intelligens for større presisjon enn ordinær GPS.
Og selv en iPad Pro har jo en innebygget LiDAR-scanner som kan benyttes til å kartlegge det fysiske rommet i umiddelbar nærhet. Mange venter at en slik funksjon også vil dukke opp i høstens iPhone 12.
Men igjen, takk være kunstig intelligens vil det bli mulig allerede nå å mappe digitalt innhold til ansikter (tenk: Snap-linser) eller også gjenkjenne håndbevegelser.
Er det en form for AR-videokonferanseløsning som Apple utvikler, perfekt for hjemme-kontoret?
Via Apple