Kuuntele tämän artikkelin ääniversio
Projektipäällikkönä olet todennäköisesti osallistunut useisiin IT-projekteihin koko urasi ajan ja kattanut monimutkaiset monoliittiset rakenteet SaaS-verkkosovelluksiin. Tekoälyn ja koneoppimisen kehittyessä kuitenkin uusia hankkeita, joilla on erilaiset vaatimukset ja ongelmat, tulevat horisonttiin nopeasti.
Näiden tekniikoiden yleistymisen myötä siitä on tulossa vähemmän 'mukavaa saada' ja sen sijaan on välttämätöntä, että tekniset projektipäälliköt ovat terveellisissä suhteissa näihin käsitteisiin. Gartnerin mukaan , vuoteen 2020 mennessä tekoäly luo 2,3 miljoonaa työpaikkaa, mikä ylittää 1,8 miljoonan työpaikan, jonka se poistaa - tuottaa 2,9 biljoonaa dollaria liiketoiminnan arvoa vuoteen 2021 mennessä. Googlen toimitusjohtaja menee niin pitkälle kuin sanotaan että ”tekoäly on yksi tärkeimmistä asioista, joiden parissa ihmiskunta työskentelee. Se on syvempää kuin […] sähköä tai tulta. '
Jo tekoälyn sovelluksilla häiritsevää teollisuutta vaihtelevat rahoituksesta terveydenhuoltoon, teknisen pääministerin, joka voi tarttua tähän tilaisuuteen, on ymmärrettävä, miten tekoälyn projektinhallinta on erilainen ja miten he voivat parhaiten valmistautua muuttuvaan maisemaan.
Ennen syvemmälle menemistä on tärkeää ymmärtää vankasti tekoäly. Kun monia erilaisia termejä käytetään usein vaihtokelpoisesti, sukelkaamme ensin yleisimpiin määritelmiin.
Tekoäly on tietojenkäsittelytieteen ala, joka on omistettu ongelmien ratkaisemiselle, jotka muuten edellyttävät ihmisen älykkyyttä - esimerkiksi mallintunnistusta, oppimista ja yleistämistä.
Tätä termiä on käytetty viime vuosina liikaa keinotekoisen yleisen älykkyyden (AGI) merkitsemiseksi, joka viittaa itsetietoisiin tietokoneohjelmiin, jotka pystyvät todelliseen kognitioon. Siitä huolimatta useimmat tekoälyjärjestelmät lähitulevaisuudessa ovat niitä, joita tietojenkäsittelytieteen kutsutaan 'kapeiksi tekoälyiksi', mikä tarkoittaa, että ne on suunniteltu suorittamaan yksi kognitiotehtävissä todella hyvin, eikä 'ajattelemaan' itseään.
Koneoppiminen on tekoälyn osajoukko, joka käyttää tilastollisia tekniikoita antamaan tietokoneille mahdollisuuden oppia tiedoista ilman nimenomaista ohjelmointia.
Tekoälyä ja ML: ää on käytetty monissa yrityksissä keskenään viime vuosina, koska jotkut koneoppimismenetelmät ovat menestyneet tekoälyn alalla. Selkeyden vuoksi koneoppiminen tarkoittaa ohjelman kykyä oppia , kun taas tekoäly sisältää oppimisen yhdessä muiden toimintojen kanssa.
Lisätietoja neuroverkoista ja syvällisestä oppimisesta on tämän artikkelin lopussa olevassa liitteessä.
Keinotekoisen tekoälyn keskeinen poisto on, että sen algoritmit käyttävät suurta määrää tietoja sisäisen rakenteensa säätämiseen siten, että kun uutta tietoa esitetään, se luokitellaan aikaisempien annettujen tietojen mukaan. Kutsumme tätä tietojen oppimiseksi sen sijaan, että toimisimme tiukasti koodiin kirjoitettujen luokitusohjeiden mukaisesti.
Kuvittele, että haluamme kirjoittaa ohjelman, joka erottaa autot kuorma-autoista. Perinteisessä ohjelmointimenetelmässä yritämme kirjoittaa ohjelman, joka etsii erityisiä, ohjeellisia ominaisuuksia, kuten isommat pyörät tai pidempi runko. Meidän olisi kirjoitettava koodi, joka määrittelee nimenomaisesti näiden ominaisuuksien ulkoasun ja sijainnin valokuvasta. Sellaisen ohjelman kirjoittaminen ja sen luotettavan toiminnan saaminen on erittäin vaikeaa, mikä todennäköisesti tuottaa sekä vääriä positiivisia että vääriä negatiivisia, siihen pisteeseen, jossa sitä ei ehkä voida käyttää lopulta lainkaan.
Tässä AI-algoritmeista tulee erittäin hyödyllisiä. Kun tekoälyn algoritmi on koulutettu, voimme näyttää sille monia esimerkkejä, ja se säätää sisäistä rakennettaan aloittaakseen kuvien onnistuneen luokittelun kannalta merkityksellisten ominaisuuksien havaitsemisen sen sijaan, että luotettaisiin staattisiin, määrättyihin ominaisuuksien määrittelyihin.
Ihmiset eivät osaa käsitellä suuria tietomääriä, ja pelkkä käytettävissä oleva tietomäärä estää toisinaan käyttämästä sitä suoraan. Täällä AI-järjestelmät tulevat sisään.
Hyvin tekoälyjärjestelmien keskeinen käsite on, että niiden ennusteet ovat vain yhtä hyviä kuin heidän tietonsa. Esimerkiksi miljoona datapistettä sisältävä algoritmi ylittää saman algoritmin 10000 datapisteellä. Lisäksi, BCG ilmoittaa ”Monet yritykset eivät ymmärrä tietojen ja koulutuksen merkitystä tekoälyn onnistumiselle. Usein parempi data on ratkaisevampaa älykkään järjestelmän rakentamiseksi kuin paremmin paljaat algoritmit, aivan kuten hoivaus useinkin on suurempi kuin ihmisillä oleva luonto. '
Tämän hinaustiedon avulla tietojen valmistelu ja puhdistus tulee olemaan yleisempi projektiprosessissa. Tämä vaihe on usein kaikkein työvoimavaltaisin osa tekoälyjärjestelmän rakentamisessa, koska useimmilla yrityksillä ei ole tietoja valmiina oikeissa muodoissa - joten voi kestää jonkin aikaa, ennen kuin data-analyytikot suorittavat tämän välttämättömän vaiheen.
Lisäksi tietoinfrastruktuurin asetukset ja tietojen puhdistustehtävät ovat paljon lineaarisempia kuin tavallinen ohjelmistokehitys ja saattavat vaatia erilaista projektinhallintamenetelmää.
Yhteenvetona voidaan todeta, että oikean tietoinfrastruktuurin rakentaminen ja käytettävien tietojen valmistelu voi viedä paljon kauemmin kuin koneoppimismallin rakentaminen tietojen ajamiseksi. Tämä on iso huomio projektipäälliköille, kun he johtavat tiimejä ja ajattelevat tekoälyn laajuutta ja projektiennusteita.
Lisäksi tietoaineistoa tulisi päivittää jatkuvasti uusilla tiedoilla. Pääsy yksilöllisiin tietojoukoihin voi olla tärkein ratkaiseva tekijä, joka määrittää, mikä ML-tuote on menestynein. On erittäin tärkeää pysyä ajan tasalla tästä, jotta saavutat parhaan mahdollisen suorituskyvyn ML-projektillesi, jopa käynnistämisen jälkeen.
Suurin osa teistä tuntee järjestelmän vakiokehityksen elinkaaren (SDLC) sekä sen, kuinka erilaiset menetelmät ja tekniikat muokkaavat sitä. On tärkeää huomata, että tekoälyn kehittäminen tuo uusia haasteita kentälle. Voimme jakaa tekoälyn kehittämisen elinkaaren näihin vaiheisiin: ideointiin ja tietojen löytämiseen, MVP: n priorisointiin ja MVP: n kehittämiseen täysimittaisiksi tuotteiksi.
Tässä ensimmäisessä vaiheessa on keskityttävä kaksi keskeistä asiaa: ML-tuotteen loppukäyttäjä ja mitkä tietopaketit ovat käytettävissä.
Lähestymällä ongelmaa kahdelta itsenäiseltä puolelta nämä tekniikat voivat auttaa projektipäällikköä supistamaan nopeasti yrityksen sisällä tarjolla olevia ML-tuotemahdollisuuksia. Tämän vaiheen aikana huippupäälliköt voivat hyötyä koneoppimistilan tuntemuksestaan ymmärtääkseen paremmin vaikeudet, joihin tietyt ongelmat voidaan ratkaista. Asiat etenevät erittäin nopeasti ML: n alalla, ja joitain vaikeita ongelmia voi helpottaa paljon uudella tutkimuksen kehityksellä.
Kuten aiemmin mainittiin, kun tiedot on löydetty, ne on puhdistettava ja valmisteltava. Tämä erityinen tehtävä suoritetaan yleensä lineaarisissa vaiheissa, jotka eivät sovi siististi tyypillisiin projektimenetelmiin, kuten ketterä tai vesiputous, vaikka ne voi pakko sprintteihin. Tyypillisesti tietojen puhdistus tapahtuu iteratiivisesti lisäämällä asteittain aineistojen kokoa ja valmistelemalla niitä samanaikaisesti muiden kehitystoimien kanssa.
Totuus siitä, että on parempi saada toimiva pienemmän tuotteen prototyyppi keskeneräisen suuren sijaan, seisoo edelleen täällä koneoppimisen tuotteiden kanssa. Uudet ML MVP: t tulisi asettaa etusijalle toimituksen nopeuden ja niiden arvon perusteella yritykselle. Jos pystyt toimittamaan tuotteita, jopa pienempiä, nopeasti, se voi olla hyvä, nopea voitto koko tiimille - sinun tulisi priorisoida nämä tuotteet ensin.
Näiden MVP: n valmistelu klassisella ketterällä tavalla on hyvä idea, ja kehitystiimin tulisi keskittyä toimittamaan ML-malleja, jotka perustuvat jatkuvasti parantaviin tietojoukkoihin, jotka dataryhmä on valmistellut itsenäisesti. Tärkeä ero tässä on se dataryhmän ei tarvitse välttämättä työskennellä saman Sprint-rakenteen kautta kuin MVP: tä rakentava tiimi .
Tässä vaiheessa tietoinfrastruktuurista tulee avain. Jos ML-tuotteesi vaatii korkean taajuuden API-pääsyä ympäri maailmaa, sinun on nyt harkittava, miten voit laajentaa infrastruktuuria ML-tuotteen tukemiseksi.
Täällä ML-moduulien muutokset on arvioitava huolellisesti nykyisen tuotteen suorituskyvyn rikkoutumisen välttämiseksi. ML-moduulien uudelleenkoulutus uusilla algoritmeilla tai tietojoukoilla ei aina lisää lineaarista suorituskykyä - siksi tarvitaan huomattava määrä testausta ennen suoraa käyttöönottoa. ML-moduulin testaus reunakoteloille ja mahdolliset generatiiviset kontradiktoriset hyökkäykset (GAN) ovat vielä lapsenkengissään, mutta projektipäälliköille on ehdottomasti pidettävä tämä mielessä, kun he käyttävät suoraa ML-tuotetta.
ML-sovellusten kehitystietovaatimukset tuovat uusia rooleja tekoälyn tuotteiden SDLC: hen. Ollaksesi loistava projektipäällikkö ML-sovellusten alalla, sinun on tunnettava hyvin seuraavat kolme roolia: datatieteilijät, datainsinöörit ja infrastruktuuri-insinöörit. Vaikka heitä ohjataan joskus muilla nimikkeillä, mukaan lukien koneoppimisinsinöörit, koneoppimisinfrastruktuurin insinöörit tai koneoppimisen tutkijat, on tärkeää tuntea vankasti nämä ydinasemat ja niiden vaikutus ML-kehitystyöhön.
Datatieteilijät ovat henkilöitä, jotka rakentavat koneoppimismalleja. He syntetisoivat ideoita perustuen syvälliseen ymmärrykseen sovelletuista tilastoista, koneoppimisesta ja analytiikasta ja soveltavat sitten oivalluksiaan ratkaisemaan todellisia liiketoimintaongelmia.
Datatieteilijöitä pidetään joskus edistyneinä versioina analyytikoista. Datatieteilijöillä on kuitenkin yleensä vahvat ohjelmointitaidot, heillä on mukava käsitellä suuria määriä datakeskuksia ulottuvia tietoja ja heillä on asiantuntemusta koneoppimisessa.
Heiltä odotetaan myös ymmärtävän hyvin tietoinfrastruktuurit ja big datan louhinta sekä pystyttävä suorittamaan etsiviä harjoituksia yksin tarkastelemalla dataa ja löytääkseen siitä alkuperäisiä vihjeitä ja oivalluksia.
Perustaidot: Python, R, Scala, Apache Spark, Hadoop, koneoppiminen, syvällinen oppiminen, tilastot, tietojenkäsittely, Jupyter, RStudio
Datainsinöörit ovat ohjelmistosuunnittelijoita, jotka ovat erikoistuneet ML-tuotteiden toiminnan edellyttämien ohjelmistojen ja infrastruktuurin rakentamiseen. Heillä on taipumus keskittyä kattavaan arkkitehtuuriin, ja vaikka he eivät ehkä olekaan koneoppimisen, analytiikan tai big datan asiantuntijoita, heillä tulisi olla hyvä käsitys näistä aiheista ohjelmistojensa ja infrastruktuurinsa testaamiseksi. Tämä on tarpeen datatieteilijän luomien koneoppimismallien onnistuneen toteuttamisen ja reaalimaailman paljastamisen mahdollistamiseksi.
Perustaidot: Python, Hadoop, MapReduce, Hive, Pig, Tietojen suoratoisto, NoSQL, SQL, ohjelmointi, DashDB, MySQL, MongoDB, Cassandra
Infrastruktuuri-insinöörit huolehtivat ML-tuotteiden rungosta: infrastruktuurikerroksesta. Vaikka tietotekniikka saattaa rakentaa osan tästä infrastruktuurista, se rakennetaan usein infrastruktuuritiimin valmisteleman ja hyväksymän tason päälle.
Infrastruktuuri-insinöörit voivat työskennellä useissa ML-ryhmissä tavoitteenaan luoda skaalautuva ja tehokas ympäristö, jossa ML-sovellukset voivat skaalata palvelemaan miljoonia käyttäjiä. Infrastruktuuri-insinöörit huolehtivat paitsi alustojen ohjelmistotasosta myös koordinoivat palvelinkeskuksen kumppaneita varmistaakseen, että kaikki toimii sujuvasti isännöityjen tietojen maantieteellisestä sijainnista laitteistoon. Kun nämä näkökohdat ovat kasvaneet merkityksessä ML-hankkeissa, infrastruktuuri-insinöörit ovat yhä tärkeämpiä tekoälyvetoisissa yrityksissä.
Perustaidot: Kubernetes, Mesos, EKS, GKE, Hadoop, Spark, HDFS, CEPH, AWS, Pilvilaskenta, Datakeskustoiminnot, Päästä päähän -infrastruktuuri, IT-infrastruktuuri, Palvelujen hallinta
Tekoäly- ja ML-pohjaisten tuotteiden myötä projektipäälliköiden odotetaan kohtaavan sekä tuttuja että täysin ulkomaisia haasteita. Suurimmat pääministerit ovat tietoisia näistä mahdollisista ongelmista koko prosessin ajan, hankkeiden laajentamisesta loppuun saakka.
Tekoälyn suosiosta ja lupauksista huolimatta, on hyvät mahdollisuudet, että ongelma, jota yrität ratkaista, ei vaadi tarkkaa tekoälyn ratkaisua .
Monet ennustusongelmat voidaan ratkaista yksinkertaisemmilla ja joissakin tapauksissa luotettavammilla tilastollisilla regressiomalleilla. On erittäin tärkeää, että pääministeri tekee terveystarkastuksen ennen projektin aloittamista varmistaakseen, että ongelma todella vaatii koneoppimista.
Joskus on viisasta aloittaa yksinkertaisemmasta tilastomallista ja siirtyä rinnakkain koneoppimiseen perustuvan ratkaisun kanssa. Esimerkiksi, jos rakennat suositusmoottoria, voi olla viisasta aloittaa yksinkertaisemmalla ratkaisulla, jonka kehityksen elinkaari on nopeampi ja joka tarjoaa hyvän lähtötason, jonka seuraavan ML-mallin pitäisi ylittää.
ML-hankkeiden yleisimmät laajuuden hiipimisen syyt liittyvät yrittää tehdä liian monta asiaa kerralla ja aliarvioida tietojen valmisteluun tarvittavat ponnistelut .
Ensimmäisen ongelman ratkaisemiseksi hallitse sidosryhmiä niin, että he ymmärtävät, että on parempi aloittaa nopeilla voitoilla eikä suurilla suunnitelmilla. Kerro tästä lähestymistavasta koko projektin ajan rakennuksen ja testauksen aikana.
Aloita pienillä atomiominaisuuksilla, jotka voidaan helposti määritellä ja testata. Jos löydät itsellesi monimutkaisen tehtävän, yritä jakaa se yksinkertaisempiin tehtäviin, jotka ovat hyödyllisiä päätehtävällesi. Sen pitäisi olla helppoa kommunikoida, mitä nämä tehtävät on tarkoitus suorittaa.
Esimerkiksi, jos yrität ennustaa, milloin käyttäjä napsauttaa tiettyä mainosta, voit ensin yrittää ennustaa, hylkääkö käyttäjä mainoksen kokonaan. Tässä lähestymistavassa ongelma on yksinkertaistettu ja nykyisten ML-mallien avulla se voidaan paremmin sovittaa ja ennustaa. Facebook on tehnyt loistava sarja, joka menee syvemmälle tähän aiheeseen , keskittymällä enemmän ML-putkistoon mallin perustamisesta toimitukseen.
Voit kohdistaa laajuuden hiipimisen toiseen avustajaan varmista, että pystyt valmistelemaan tiedot tukemaan ML-projektejasi. Yksinkertaisesti olettaen, että sinulla on tarvittavat tiedot tarvittavassa muodossa, on yleisin virhe, jonka pääministerit tekevät aloittaessaan vain ML-projekteja. Koska tietojen valmistelu ja puhdistus ovat usein pisin osa ML-projektiprosessia, tämän vaiheen hallinta on välttämätöntä. Varmista, että datatieteilijälläsi on pääsy oikeisiin tietoihin ja että hän voi tarkistaa niiden laadun ja oikeellisuuden ennen keksimällä ML-ominaisuuksia, jotka he haluavat rakentaa.
Valmistaudu tekemään merkinnät ja puhdistus jatkuvana harjoituksena koko projektin ajan, ei pelkästään aloittajana, koska projekti voi aina hyötyä paremmasta ja enemmän datasta. Koska tämä vaihe ei ole kiehtovin tehtävä, jaa tämä työ sprintteihin, jotta tietotiimisi voi tuntea ponnistelujensa etenemisen sen sijaan, että joutuisi loputtomaan lippujärjestykseen.
Joskus yritykset ulkoistavat tietomerkinnät kolmansille osapuolille. Vaikka tämä voi auttaa säästämään aikaa ja ennakkomaksuja, se voi myös tuottaa epäluotettavaa tietoa, mikä lopulta haittaa ML-mallisi menestystä. Tämän välttämiseksi käytä moninkertaista päällekkäisyystekniikkaa, jossa useat osapuolet tarkistavat jokaisen datan ja vain, jos niiden tulokset vastaavat toisiaan.
Kun suunnittelet projektia, varaa riittävästi aikaa tietoryhmälle, jotta se voi tehdä muutoksia siltä varalta, että tarravaatimuksesi muuttuvat projektin puolivälissä ja uudelleetunnisteita tarvitaan.
Lopuksi tarkista, voidaanko tietojasi käyttää helposti olemassa olevilla ML-menetelmillä uusien ML-menetelmien keksimisen sijaan, koska nollasta alkaen voi merkittävästi lisätä projektin aikaa ja laajuutta. Huomaa, että jos yrität ratkaista ML-ongelmaa, jota ei ole vielä ratkaistu, on suuri mahdollisuus, että epäonnistut. Huolimatta koneoppimisen menestyksestä ja julkaistujen tutkimuspapereiden lukumäärästä, ML-ongelmien ratkaiseminen voi olla hyvin vaikeaa. Aina on helpoin aloittaa ML-alueella, jolla on paljon hyviä esimerkkejä ja algoritmeja, ja yrittää parantaa sitä sen sijaan, että yritettäisiin keksimään jotain uutta.
Jokaisen pääministerin tulisi olla valmis miettimään luomiensa tekoälytuotteiden käyttökokemusta ja kuinka hallita parhaiten niitä rakentavaa tiimiä. Google kirjoitti hienon teoksen heidän ajattelutapaansa UX: stä ja tekoälystä, painottaen ihmisten vuorovaikutusta.
Tämä kohta on erityisen tärkeä, jos ML-tuotteesi on oltava vuorovaikutuksessa käyttäjien kanssa tai jopa korvattava heillä. Suunnittelun tulisi lisätä järjestelmän käyttäjille ja käyttäjille tarvittava vähimmäismäärä stressiä. Esimerkiksi chat-robotit perustuvat usein koneoppimiseen, mutta ihmisoperaattori voi ottaa ne saumattomasti haltuunsa.
On myös mahdollista, että sidosryhmät voivat odottaa koneoppimistuotteilta paljon enemmän kuin mitä ne voivat tuottaa. Tämä on yleensä ongelma, joka johtuu median luomasta hyökkäyksestä kirjoittaessaan tekoälytuotteita, ja siksi on tärkeää, että projektipäällikkö asettaa kohtuulliset odotukset.
Muista selittää, mitä tekoälytyökalu todella on ja mitä se voi saavuttaa sidosryhmillesi, jotta voit hallita heidän odotuksiaan riittävän hyvin ennen kuin he testaavat työkalua. Hyvä UX on hieno, mutta se ei voi tuottaa arvoa käyttäjille, joilla on epärealistisia odotuksia, joten on välttämätöntä, että kaikki mukana olevat pääministerit hallitsevat näitä ja kouluttavat sidosryhmiään tekoälystä ja sen realistisista ominaisuuksista.
Tekoäly on nykyisessä muodossaan suhteellisen uusi ala. Koskaan aikaisemmin ei ole ollut niin monia sovelluksia, jotka käyttävät syvää oppimista tavoitteidensa saavuttamiseksi. Näillä uusilla kehityksillä on omat haasteensa etenkin testauksessa.
Vaikka on suhteellisen helppoa testata vakio-ohjelmistoja, joilla on selkeä 'sääntöjoukko', on paljon vaikeampaa testata tyhjentävästi koneoppimismalleja, etenkin hermoverkkoja käyttäen rakennettuja. Tällä hetkellä suurimman osan ML-malleista testaa datatieteilijät itse, mutta standardien laadunvarmistusryhmien kanssa on vain vähän sovittuja testausmenetelmiä sen varmistamiseksi, että ML-tuotteet eivät epäonnistu odottamattomilla tavoilla.
Uusilla tavoilla manipuloida tunnettujen mallien tuloksia, kuten nämä GAN-hyökkäykset , kattava mallintestaus tulee entistä tärkeämmäksi. Tästä tulee etusija monissa ML-projekteissa, ja näemme lisää 'integrointityyppisiä' testejä ML-malleille tulevina vuosina. Useimmissa yksinkertaisissa projekteissa tämä ei välttämättä ole konkreettinen ongelma, mutta on tärkeää pitää tämä mielessä, jos rakennat tehtäväkriittistä ML-tuotetta.
Tästä lähtien Langallinen artikkeli julkaistiin, ja alkuperäinen paperi esiteltiin osoitteessa USENIX-turvallisuuskonferenssi vuonna 2016 , on käynyt ilmi, että on olemassa mahdollisuus plagioida elävä ML-malli.
Tätä on silti melko vaikea saavuttaa hyvin, mutta jos sinulla on malli, joka toimii julkisesti saatavana olevan sovellusliittymän kautta, on tärkeää olla tietoinen tästä mahdollisuudesta. Teoriassa osapuoli, jolla on huomattava pääsy siihen, voisi kouluttaa omaa verkkoaan sinun verkkosi perusteella ja kopioida tehokkaasti ennustekykysi.
Tämä on edelleen melko rajallinen mahdollisuuksien suhteen , mutta muista työskennellä tiimisi kanssa mahdollisten hyökkäysten ehkäisystrategiassa, jos tämä koskee projektiasi.
Maailmanluokan tekoälyasiantuntijoiden kysynnän myötä kilpailu oikeiden kykyjen saamiseksi on kovaa. Itse asiassa, New York Times kertoo, että maailmanluokan tekoälyasiantuntijat voivat ansaita jopa miljoona dollaria vuodessa työskentelee suurissa Piilaakson teknologiavoimaloissa. Pääministerinä, kun etsit tekoälyn asiantuntijoita liittymään joukkueeseesi, ole tietoinen näistä dynamiikoista, koska ne voivat vaikuttaa palkkaussykleihisi, budjettiisi tai tehdyn työn laatuun.
Tämä puute ulottuu innovatiivisten mielien ohi, jotka luovat uudemmat syvällisen oppimisen algoritmit, ja pätee myös korkealaatuisiin tietotekniikan insinööreihin ja tutkijoihin.
Monet lahjakkaimmista ihmisistä osallistuvat koneoppimiskilpailuihin, kuten Kaggle missä he voivat toivoa voittavansa 100 000 dollarin pohjoispuolella vaikeiden koneoppimisongelmien ratkaisemisesta. Jos ML-asiantuntijoita on vaikea palkata paikallisesti, on viisasta etsiä ratkaisuja, kuten erikoistuneiden urakoitsijoiden palkkaaminen etänä tai ajaa omaa Kaggle kilpailu vaikeimmista ML-ongelmista.
Tekoälyn oikeudelliset ja eettiset haasteet projektinhallinnassa ovat kaksi.
Ensimmäinen haastejoukko johtuu ML-mallien kouluttamiseen käytetyistä tiedoista. On tärkeää ymmärtää, mistä käyttämäsi tiedot ovat peräisin, ja erityisesti siitä, onko sinulla käyttöoikeudet ja lisenssit, joiden avulla voit käyttää tietoja.
On aina tärkeää kuulla lakimiehesi ratkaistaksesi tällaiset kysymykset, ennen kuin otat käyttöön mallin, joka on koulutettu tietoihin, joille sinulla ei ehkä ole oikean tyyppistä lisenssiä. Koska kyseessä on suhteellisen uusi kenttä, monet näistä vastauksista eivät ole selkeitä, mutta pääministerien tulisi varmistaa, että heidän tiiminsä käyttävät vain aineistoja, joiden käyttöön heillä on oikeus.
Tässä on hyvä luettelo julkisesti saatavilla olevista aineistoista ML-algoritmiesi kouluttamiseen.
Toinen haasteiden joukko on varmistaa, että järjestelmässäsi ei kehity järjestelmällistä ennakkoluuloa. On ollut lukuisia tapauksia tällaisista ongelmista viime vuosina, jolloin erään kamerayrityksen oli myönnettävä, että sen hymyntunnistustekniikka havaitsee vain tietyn rodun ihmiset, koska se on koulutettu vain tietoihin, jotka sisältävät kyseisen rodun kasvoja. Toinen esimerkki tuli suurelta ohjelmistoyritykseltä, joka joutui vetämään itsensä oppivan Twitter-botin muutaman päivän oppimisen jälkeen, koska Internet-peikkoryhmän yhteinen ponnistelu sai sen tuottamaan rodullisia väärinkäytöksiä ja toistamaan villiä salaliittoja.
Näiden ongelmien aste voi olla vähäinen tai tuhoaa projektia, joten kriittisiä järjestelmiä kehittäessään pääministerien tulisi varmistaa, että he harkitsevat tällaisia mahdollisuuksia ja estävät niitä mahdollisimman aikaisin.
Yhteenvetona voidaan todeta, että lähestyvä tekoälyn vallankumous tuo esiin joukon mielenkiintoisia, dynaamisia projekteja, joihin liittyy usein muokattu kehitysprosessi, erilainen tiimin arkkityyppi ja uusia haasteita.
Huipputekniset projektipäälliköt heillä on paitsi hyvä ymmärrys tekoälyn perusteista, myös intuitio jokaisen projektivaiheen vaikeudesta ja siitä, mitä on todella mahdollista luoda tiiminsä kanssa. Koska tekoäly ei ole kaupallinen hylly ( COTS ) ratkaisun, jopa yritysten, jotka päättävät ostaa tiettyjä ML-tuotteita, on silti investoitava uusien asioiden testaamiseen sekä tietojen ja infrastruktuurin oikeaan hallintaan.
On selvää, että ohjelmistotuotteiden tyypit ja niiden luomisprosessit muuttuvat tekoälyn myötä. Projektipäälliköt, jotka pystyvät ymmärtämään ja toteuttamaan nämä uudet konseptit, ovat tärkeitä tekijöitä tulevaisuuden koneoppimistuotteiden luomisessa.
Tekoälyn (AI) ja koneoppimisen (ML) yleisempien sanojen lisäksi projektipäälliköt voivat hyötyä siitä, että he ovat tietoisia syvällisen oppimisen (DL) ja hermoverkkojen (NN) edelleen erottamisesta.
Syvä oppiminen on osa laajempaa koneoppimismenetelmien perhettä, joka perustuu oppimisdataesityksiin, toisin kuin klassiset tehtäväkohtaiset algoritmit.
Suurin osa nykyaikaisista syvällisen oppimisen malleista perustuu keinotekoiseen hermoverkkoon, vaikka ne voivat käyttää useita muita menetelmiä.
Neuroverkot ovat biologisesti inspiroivia, yhdistettyjä matemaattisia rakenteita, jotka mahdollistavat tekoälyjärjestelmien oppimisen heille esitetyistä tiedoista.
Voimme kuvitella nämä verkot miljoonina pieninä portteina, jotka avautuvat tai sulkeutuvat tietojen syöttömme mukaan. Näiden tekniikoiden onnistumisen mahdollisti GPU-laskentatehon kasvu viime vuosina, mikä antoi meille mahdollisuuden säätää nopeasti enemmän näitä 'pieniä portteja' hermoverkkojen sisällä.
Neuroverkkoja on useita tyyppejä, joista jokaisella on omat erityiset käyttötapauksensa ja monimutkaisuutensa. Saatat nähdä termejä, kuten CNN (kääntyvä hermoverkko) tai RNN (toistuva hermoverkko), joita käytetään kuvaamaan erityyppisiä hermoverkkorakenteita.
Jotta ymmärrät paremmin niiden ulkonäön ja toiminnan, tässä on hieno 3D-visualisointi siitä, kuinka hermoverkot 'näyttävät', kun ne ovat aktiivisia.
Jos tämän lukemisen jälkeen haluat mennä tutkimaan aihetta hieman syvemmälle, suosittelen tutustumaan näihin lähteisiin:
Jos haluat sukeltaa syvemmälle hermoverkkojen toiminnan mekaniikkaan, ehdotan, että tarkistat 3Sininen1Ruskea sarja hermoverkoissa Youtubessa. Mielestäni tämä on ylivoimaisesti paras perusteellinen selitys hermoverkoista. Se toimitetaan yksinkertaisella tavalla eikä vaadi ennakkotietoa.
Jos haluat pysyä ajan tasalla tekoälyn tekniikan uusimmista edistysaskeleista viettämättä tuntikausia lukemalla akateemisia artikkeleita, suosittelen seuraavaa Kahden minuutin paperit . Tämä kanava tarjoaa viikoittaiset kahden minuutin päivitykset vaikuttavimmista uusista tekoälytekniikoista ja niiden toteutuksista.
Jos haluat joskus kokeilla koodia itse ja sinulla on alkeellisia Python-taitoja, voit tarkistaa Fast.ai . Heidän kurssinsa ansiosta kuka tahansa, jolla on peruskehitysosaamista, voi alkaa kokeilla ja leikkiä hermoverkkojen kanssa.
Tämä ehdotus on tarkoitettu niille, jotka haluavat aloittaa alusta alkaen ja työskennellä koneoppimisen ymmärtämisen ja toteuttamisen huipulle.
Luonut nyt legendaarinen Andrew Ng, joka käynnisti Courseran tämän kurssin kanssa , se vaatii huomattavan aikainvestoinnin - vähintään kuusi kuukautta -, mutta se voi olla erittäin tuottava tapa viettää lauantai.
Huomaa: Keskeisiä termien määritelmiä on mukautettu Wikipediasta.
Ei - vaikka niitä käytetään usein vaihtokelpoisesti, koneoppiminen on tekoälyn osajoukko, jolle on erityisesti ominaista ohjelman kyky oppia ilman nimenomaista ohjelmointia.
Syväoppiminen voidaan luokitella koneoppimismenetelmien luokkaan, jotka perustuvat oppimisdataesityksiin. Ne perustuvat usein keinotekoiseen hermoverkkoon, vaikka ne voivat käyttää useita muita menetelmiä.
Neuroverkot ovat matemaattisia rakenteita, joiden avulla tekoälyjärjestelmät voivat 'oppia' toimitetuista tiedoista. Voimme kuvitella nämä verkot miljoonina pieninä portteina, jotka avautuvat tai sulkeutuvat tietojen syöttömme mukaan.