WWDC23: ML, ikke AI
Apple fremhever lokal maskinlæring fremfor kunstig intelligens.
WWDC23 er over, og for et event det var!
Spesielt maskinvaren som ble presentert var noe for historiebøkene: XR-brillene Vision Pro, selvfølgelig, men også kompletteringen av overgangen til Apple Silisium.
Ved siden av operativsystemene, selvfølgelig. iOS 17 og macOS Sonoma er de store OS som slippes til høsten, og som maskinvaren selvfølgelig er avhengig av. Så ville Apple finne plass til noe kunstig intelligens oppi all AI-hypen?
Svaret er nei - man velger primært å fremheve maskinlæring lokalt, on device. Med andre ord en løsning der man implementerer trente modeller, og så prosesseres dataene lokalt uten at de må opp i skyen.
Det er spesielt de kraftige nevrale nettverkene som sitter i de nye brikken som åpner for dette.
For eksempel et helt nytt system for autokorrektur av tekst når du skriver meldinger på en iPhone med iOS 17. Den nye løsningen vil være basert på en såkalt transformer language model, ikke ulikt DALL-E for bilder eller ChatGPT som chatbot.
Den lokalt modellen på din iPhone vil over tid lære av din tekst-input, og skal kunne predikere flere over fremover basert på det du skriver for øyeblikket. Så auto-komplettering, med andre ord.
Men en rekke andre funksjoner vil også baseres på ML. For eksempel ble det vist frem en måte for en iPad å ta et bilde av et formular til utfylling, som så automatisk fylles ut med tekst som antas å være relevant - for eksempel et søknadsskjema mer personlige data.
Og nye Vision Pro er selvfølgelig full av maskinlæring, som vi faktisk ikke vet så veldig mye om enda.
Via ArsTechnica