Mitä yritykset voivat odottaa tulevaisuuden tekoälyä hyödyntäviltä työkaluilta? Yhteenveto Bessemer Venture Partnersin raportista, omilla näkemyksillämme höystettynä.
Bessemer Venture Partnersin tuore raportti valottaa kehittyvää tekoälyinfrastruktuuria ja sitä, millaisia työkaluja AI-hyötyjä tavoittelevat yritykset voivat hyödyntää. Kokosimme raportin kohokohdat sekä pohdintoja Shahin Atailta, HiQ Ruotsin tekoälyjohtajalta.
Teknologiamaailmaa odottaa merkittävä muutos. Suurimpien hyperscaler-toimijoiden ulkopuolelta nousee ohjelmisto- ja infrastruktuuriyrityksiä, jotka rakentavat seuraavan sukupolven tekoälypalveluita ja -ratkaisuja. Muutos ei ole asteittainen, vaan ravistelee perustavanlaatuisella tavalla tapojamme tarkastella tekoälyn kehitystä ja käyttöönottoa.
Keskeiset innovaatiot näkyvät eri kerroksissa:
Kerros, jossa koneoppimis- ja tekoälymallit sijaitsevat ja jossa datan mallintaminen ja ennustaminen tapahtuu, muuttuu yhä dynaamisemmaksi ja kilpailukykyisemmäksi. Nopeita edistysaskeleita voi nähdä skaalauksessa, uusissa kielimallirakenteissa ja tiettyihin käyttötarkoituksiin hienosäädetyissä malleissa (specialized foundation models). Tämä moninaisuus avaa tekoälysovelluksille uusia mahdollisuuksia eri toimialoilla.
Uudet ja edistyneet mallit, erityisesti suuret kielimallit (LLM), suoriutuvat erinomaisesti monista tehtävistä käyttäen julkisesti saatavilla olevaa dataa. Tämä tekee niistä yhä tehokkaampia monimutkaisten ja tarkkojen tehtävien suorittamisessa. Esimerkiksi terveydenhuollon perusmallit (Healthcare Foundational Models), kuten Googlen kehittämä Med-PaLM, on suunniteltu vastaamaan lääketieteellisiin kysymyksiin korkealaatuisesti ja tarkasti.
Laskentakerroksen (compute layer) innovaatiot, mukaan lukien GPU/TPU-laitteisto, räätälöidyt sirut, käyttöjärjestelmät ja tekoälypilvimallit, ratkaisevat kriittisiä pullonkauloja tekoälymallien koulutuksessa, käyttöönotossa ja inferenssissä. Mielenkiintoiset tekniikat, kuten itsehuomiomekanismit (self-attention mechanisms) ja KV-välimuistin optimoinnit, parantavat merkittävästi tehokkuutta ja pienentävät muistin käyttöä koko kerroksessa.
OpenAI:n ja ChatGPT:n Applied-insinööritiimiä johtanut Evan Morikawa käsitteli suurten kielimallien ja laskentakerroksen skaalaamisen haasteita aiemmin tänä vuonna. Self-attention –mekanismeilla ja KV-välimuistin optimoinnilla oli iso rooli ChatGPT:n tehokkuuden parantamisessa.
Self-attention -tekniikat auttavat kielimalleja analysoimaan lauseita määrittääkseen, mitkä sanat ovat ratkaisevan tärkeitä ja miten ne liittyvät toisiinsa. KV-välimuistin optimoinnit puolestaan toimivat kuin muistivihko, jonka avulla malli voi tallentaa aiemmin lasketut tiedot muistiin ja välttää toistuvia laskelmia tiettyjen kehotteiden tai tehtävien kohdalla.
Koska data on tekoälyn ja generatiivisen tekoälyn (GenAI) elinehto, tekoälyvallankumous käynnistää merkittäviä muutoksia koko datankäsittelyarkkitehtuurissa. Perinteinen datainfrastruktuuri tulee tukemaan tekoälyn laskennallisten prosessien aiheuttamassa kuormassa. Ennusteet osoittavat, että jäsentelemättömän datan määrä kasvaa ~612 zettatavuun vuoteen 2030 mennessä. Kasvu edellyttää uusia datan ja tallennuksen työkaluja, ja yritykset kuten Weaviate ja Databricks toimivat nopeasti vastatakseen näihin tarpeisiin.
Uusi ja vauhdilla kehittyvä startupaalto rakentaa järjestelmiä tekoälymallien ympärille tai parantaa olemassa olevia ominaisuuksia tekoälyteknologioilla. Tämä kehityskulku paljastaa rajoitukset nykyisessä datainfrastruktuurissa ja työkaluissa, jotka eivät vielä ole täysin mukautuneita AI-käyttötapauksiin. Se puolestaan luo kysyntää nimenomaan tekoälyn kehittämiseen, kouluttamiseen, hallintaan ja käyttöön suunnitelluille työkaluille, jotka muovaavat tulevaisuuden datanhallintastrategioita.
Yritykset, kuten Langchain ja LlamaIndex, ovat kehittymässä kriittisiksi toimijoiksi tekoälyn toimituksessa ja sovellusten kehittämisessä. Niiden tarjoamat kehykset tekevät tekoälysovellusten kehittämisestä helpompaa, kun monimutkaiset tekniset yksityiskohdat piilotetaan yksinkertaisempien rajapintojen ja toimintojen taakse.
Bessemer Venture Partnersin raportti on yksi kattavimmista tekoälyinfrastruktuurin tiekartoista tähän mennessä. Tässä HiQ:n näkemys siitä, mitä yritykset voivat tulevaisuudessa odottaa:
Huipputason GPU-klustereita hyödyntävien mallien (foundation models) suorituskyvyn ja kyvykkyyden kasvu jatkuu. Koska inferenssi on toistaiseksi kustannustehokkaampaa kuin koulutus, useimmat organisaatiot todennäköisesti käyttävät näitä malleja pilvi-infrastruktuurin kautta.
Kaiken kokoiset organisaatiot alkavat entistä enemmän panostaa tietojenkäsittelytieteeseen ja insinööritaitoihin. Muutos edellyttää uusien taitojen ja datavetoisten kyvykkyyksien kehittämistä sekä uusien tekoälytyökalujen ja infrastruktuurin omaksumista. Muutoksessa hidastelevilla organisaatioilla on riski jäädä jälkeen yhä tekoälyvetoisemmassa liiketoimintaympäristössä.
Toimiala- ja käyttökohtaisen, korkealaatuisen datan keräämisen ja hyödyntämisen painotus kasvaa. Human-in-the-loop (HITL) -alustat ja -kehykset tulevat olemaan kriittisessä roolissa datan yhdistämisessä ja jalostamisessa laajempiin tekoälykäyttötapauksiin.
Kun tekoäly integroituu entistä enemmän liiketoiminnan operaatioihin, fokus tekoälyoperaatioiden (AIOps) työkaluihin ja kehyksiin vahvistuu. Ne ovat keskeisiä tulevien tekoälymallien suorituskykymittareiden, kuten datavinoumien, päättelykyvyn, koulutustehokkuuden, viiveen, laskentakustannusten ja muiden mittarien seuraamisessa ja arvioinnissa
Chatbotien jälkeen odotamme uusia tekoälyä hyödyntäviä sovellustyyppejä, jotka rakentuvat kehittyvän tekoälyinfrastruktuurin alustojen päälle. Datarobot, Databricks ja Airbyte sekä niitä suuremmat yritykset, kuten Amazon (Trainium ja Inferentia), Microsoft ja Meta, todennäköisesti vievät tätä innovaatiota eteenpäin ja avaavat AI-kyvykkyyksiä usean toimijan ennakoivalle kunnossapidolle, älykkäälle ohjaukselle tai AI-at-the-edge-järjestelmille. Tätä kehityskulkua kannattaa seurata!
Raportissa todetaan, että AI-infrastruktuurin ja palveluiden tarjoajilla on loistava mahdollisuus tarjota yrityksille työkaluja datan louhintaan. Nämä työkalut antavat lopulta uusia lähestymistapoja datanhallintaan (DataOps) ja erilaisten koneoppimis- (ML) tai tekoälytoimintojen (MLOps-AIOps) integroimiseen yrityksissä.
“Organisaatioiden on valmistauduttava tekoälyinfrastruktuurin nopeaan kehitykseen. Uudella aikakaudella menestyminen riippuu useista tekijöistä. Ketteryys ja sopeutumiskyky ovat ratkaisevia: yritysten on oltava valmiita omaksumaan ja integroimaan nopeasti kehittyviä tekoälyteknologioita”, sanoo Shahin Atai, HiQ Ruotsin tekoälyjohtaja.
Myös datan strateginen hallinta on ratkaisevaa. Datan keräämisen lisäksi on olennaista varmistaa, että se on riittävän laadukasta ja tarkoituksenmukaista.
“Lisäksi kaikilla organisaation tasoilla on välttämätöntä investoida osaamisen kehittämiseen. Erityisesti kyky ymmärtää, käyttää ja arvioida tekoälyä sekä tekoälyyn erikoistuneiden taitojen kehittäminen on tärkeää.”
AI-infrastruktuurin muutos myllertää jo yritysteknologioiden kenttää. Oletpa vasta aloittamassa tekoälymatkaa tai etsimässä tapoja laajentaa nykyisiä kyvykkyyksiä, HiQ:n asiantuntijatiimi tarjoaa ohjausta, työkaluja ja tukea. Voimme auttaa paitsi suunnittelemaan ja rakentamaan AI-ratkaisuja, myös kehittämään yrityksesi omaa lähestymistapaa tekoälyn omaksumiseen.