Biografier Kjennetegn Analyse

Bruksområder for kunstig intelligens. Påvirkning på arbeidsmarkedet

Kunstig intelligens AI (kunstig intelligens) blir vanligvis tolket som egenskapen til automatiske systemer for å ta på seg individuelle funksjoner av den menneskelige mentale evnen, for eksempel å velge og ta optimale beslutninger basert på tidligere oppnådd erfaring og en rasjonell analyse av ytre påvirkninger. Først og fremst snakker vi om systemer basert på prinsippene om læring, selvorganisering og evolusjon med minimal menneskelig deltakelse, men involverer ham som lærer og partner, et harmonisk element i menneske-maskin-systemet.

Naturligvis begynte forsøk på å lage AI basert på datamaskiner i begynnelsen av utviklingen av datateknologi. Da dominerte dataparadigmet, hvor nøkkeltesene sa at Turing-maskinen er en teoretisk modell av hjernen, og datamaskinen er implementeringen av en universell maskin og enhver informasjonsprosess kan reproduseres på en datamaskin. Et slikt paradigme var dominerende i lang tid, det ga mange interessante resultater, men det oppnådde ikke hovedoppgaven - konstruksjonen av AI i betydningen å modellere menneskelig tenkning. Datamaskinparadigmet med å lage AI, som kollapset på grunn av et feil sett med nøkkelforutsetninger, forvandlet logisk til nevroinformatikk, som utvikler en ikke-datamaskintilnærming til modellering av intellektuelle prosesser. Den menneskelige hjernen, som opererer med usegmentert informasjon, viste seg å være mye mer komplisert enn Turing-maskinen. Hver menneskelig tanke har sin egen kontekst, utenfor hvilken den er meningsløs, kunnskap lagres i form av bilder som er preget av uklarhet, uklarhet, bildesystemet er svakt følsomt for motsetninger. Det menneskelige kunnskapslagringssystemet er preget av høy pålitelighet på grunn av distribuert kunnskapslagring, og informasjonshåndtering er preget av stor dybde og høy parallellitet.

Behandlingen av informasjon i alle intelligente systemer er basert på bruken av en grunnleggende prosess - læring. Bilder har karakteristiske objektive egenskaper i den forstand at ulike gjenkjenningssystemer, trent på forskjellig observasjonsmateriale, stort sett klassifiserer de samme objektene på samme måte og uavhengig av hverandre. Det er denne objektiviteten til bilder som gjør at mennesker over hele verden kan forstå hverandre. Læring kalles vanligvis prosessen med å utvikle i et system en spesifikk reaksjon på grupper av eksterne identiske signaler ved gjentatte ganger å påvirke gjenkjenningssystemet for eksterne korreksjonssignaler. Mekanismen for å generere denne justeringen, som oftest har betydningen av belønning og straff, bestemmer nesten fullstendig læringsalgoritmen. Selvlæring skiller seg fra læring ved at her ikke rapporteres tilleggsinformasjon om riktigheten av reaksjonen på systemet.

Intelligente informasjonssystemer kan bruke "biblioteker" med en lang rekke metoder og algoritmer som implementerer forskjellige tilnærminger til prosessene for læring, selvorganisering og evolusjon i syntesen av AI-systemer. Siden det nå verken er en generell teori om kunstig intelligens eller et fungerende utvalg av en fullt funksjonell AI-modell, er det umulig å si hvilken av disse tilnærmingene som er riktige og hvilke som er feil: mest sannsynlig kan de harmonisk utfylle hverandre. Mer informasjon om problemene med kunstig intelligens finner du på nettsidene www.ccas.ru og www.iseu.by/rus/educ/envmon.

Kunstig intelligens implementeres ved hjelp av fire tilnærminger (det er vanskelig å ikke si fasjonable "paradigmer"): logisk, evolusjonær, simulering og strukturell. Alle disse fire retningene utvikler seg parallelt, ofte sammenflettet.

Grunnlaget for den logiske tilnærmingen er boolsk algebra og dens logiske operatorer (først og fremst den kjente IF ["hvis"]-operatoren). Boolsk algebra fikk sin videreutvikling i form av predikatkalkulus, der den ble utvidet ved å introdusere objektsymboler, relasjoner mellom dem, eksistensielle og universelle kvantifiserere. Så godt som alle AI-systemer bygget på et logisk prinsipp er en teorembevisende maskin. I dette tilfellet lagres de første dataene i databasen i form av aksiomer, og reglene for slutning - som forholdet mellom dem.

De fleste logiske metoder er preget av høy arbeidsintensitet, siden under søket etter bevis er en fullstendig oppregning av alternativer mulig. Derfor krever denne tilnærmingen en effektiv implementering av beregningsprosessen, og god ytelse er vanligvis garantert med en relativt liten databasestørrelse. Et eksempel på praktisk implementering av logiske metoder er beslutningstrær som i konsentrert form implementerer prosessen med "læring" eller syntese av beslutningsregelen.

For å oppnå større uttrykksevne av den logiske tilnærmingen tillater en så relativt ny retning som fuzzy logic. Etter de grunnleggende verkene til L. Zadeh ble begrepet fuzzy (engelsk fuzzy, fuzzy) nøkkelordet. I motsetning til tradisjonell matematikk, som krever presise og utvetydige formuleringer av regelmessigheter ved hvert trinn i modelleringen, tilbyr fuzzy logic et helt annet nivå av tenkning, takket være hvilket den kreative prosessen med modellering finner sted på et høyere abstraksjonsnivå, der bare et minimalt nivå. sett med regulariteter er postulert. Sannheten til et logisk utsagn kan for eksempel ta inn uklare systemer, i tillegg til de vanlige "ja/nei" (1/0), også mellomverdier: "Jeg vet ikke" (0,5), "pasienten er mer levende enn død" (0,75), "pasienten er mer død enn levende" (0,25), etc. Denne tilnærmingen er mer som tankegangen til en person som sjelden svarer på ja eller nei-spørsmål. Det teoretiske grunnlaget og anvendte aspekter ved intelligente estimerings- og prognosesystemer under usikkerhet, basert på teorien om uklare sett, er beskrevet i detalj i litteraturen [Averkin et al., 1986; Borisov et al., 1989; Ikke-tradisjonelle modeller.., 1991; Vasiliev og Ilyasov, 1995].

Begrepet "selvorganisering" forstås, ifølge Ivakhnenko, "prosessen med spontan (spontan) økning i orden, eller organisering i et system som består av mange elementer, som skjer under påvirkning av det ytre miljøet."

Prinsippene for selvorganisering var gjenstand for forskning av mange fremtredende vitenskapsmenn: J. von Neumann, N. Wiener, W.R. Ashby og andre. Et stort bidrag til utviklingen av denne retningen ble gitt av arbeidet til ukrainsk kybernetikk under ledelse av A.G. Ivakhnenko, som utviklet en hel klasse med adaptive selvorganiseringsmodeller, som kan kalles en "intelligent generalisering" av empirisk-statistiske metoder.

Følgende prinsipper for selvorganisering av matematiske modeller kan noteres:

  • - prinsippet om ikke-endelige avgjørelser (foreslått av D. Gabor og består i behovet for å opprettholde tilstrekkelig "valgfrihet" av flere beste løsninger på hvert trinn av selvorganisering),
  • - prinsippet om ekstern addisjon (basert på K. Gödels teorem og ligger i det faktum at bare eksterne kriterier basert på ny informasjon tillater syntetisering av en sann modell av et objekt skjult i støyende eksperimentelle data);
  • - prinsippet om masseutvelgelse (foreslått av A.G. Ivakhnenko og indikerer den mest hensiktsmessige måten å gradvis komplisere en selvorganiserende modell slik at kvalitetskriteriet går gjennom dets minimum).

For fremveksten av selvorganisering er det nødvendig å ha en innledende struktur, en mekanisme for dens tilfeldige mutasjoner og utvalgskriterier, takket være hvilke en mutasjon blir evaluert med tanke på dens nytte for å forbedre kvaliteten på systemet. De. når man bygger disse AI-systemene, spesifiserer forskeren kun den første organisasjonen og listen over variabler, samt kvalitetskriteriene som formaliserer optimaliseringsmålet, og reglene som modellen kan endres etter (selvorganisere eller utvikle seg). Dessuten kan selve modellen tilhøre en rekke typer: lineær eller ikke-lineær regresjon, et sett med logiske regler eller en hvilken som helst annen modell.

Selvorganiserende modeller tjener hovedsakelig til å forutsi atferden og strukturen til økosystemer, siden, i henhold til selve logikken i deres konstruksjon, blir forskerens deltakelse i denne prosessen minimert. En rekke spesifikke eksempler på bruk av GMDH-algoritmer kan gis: for langsiktige prognoser for det økologiske systemet i Lake Baikal, modellering av geobotaniske beskrivelser; systemer "rovdyr-byttedyr", vekst av trær, prognose av toksikologiske indikatorer for forurensninger, vurdering av dynamikken i antall dyreplanktonsamfunn.

I matematisk kybernetikk skilles to typer iterative prosesser for systemutvikling:

  • - tilpasning, der ekstremum (målet med systembevegelsen) forblir konstant;
  • - evolusjon, der bevegelsen er ledsaget av en endring i ekstremumets stilling.

Hvis selvorganisering bare er assosiert med adaptive mekanismer for å justere systemresponser (for eksempel endring av verdiene til vektkoeffisienter), er begrepet evolusjon assosiert med evnen til en effektor (et begrep introdusert av S. Lem) å endre sin egen struktur, dvs. antall elementer, retningen og intensiteten til forbindelsene, justere dem på en optimal måte med hensyn til oppgavene i hvert enkelt øyeblikk. I prosessen med evolusjon i et komplekst og skiftende miljø, er effektoren i stand til å tilegne seg fundamentalt nye kvaliteter, for å nå neste utviklingsstadium. For eksempel, i prosessen med biologisk evolusjon, har ekstremt komplekse og samtidig overraskende produktive levende organismer oppstått.

Evolusjonsmodellering er en i hovedsak universell metode for å konstruere prognoser for makrotilstandene til et system under forhold der a posteriori-informasjon er fullstendig fraværende, og a priori-data spesifiserer bare forhistorien til disse tilstandene. Det generelle opplegget for evolusjonsalgoritmen er som følger:

  • - den innledende organiseringen av systemet er spesifisert (i evolusjonsmodellering kan for eksempel en endelig deterministisk Mealy-automat vises i denne kapasiteten);
  • - utføre tilfeldige "mutasjoner", dvs. endre den nåværende tilstandsmaskinen tilfeldig;
  • - velg for videre "utvikling" den organisasjonen (den automaten) som er "best" i betydningen av et eller annet kriterium, for eksempel maksimal nøyaktighet for å forutsi sekvensen av verdier til økosystemmakrostater.

Kvalitetskriteriet til modellen i dette tilfellet er ikke mye forskjellig, for eksempel fra minimum av gjennomsnittlig kvadratfeil på treningssekvensen til minste kvadraters metode (med alle de påfølgende ulempene). Men i motsetning til tilpasning, i evolusjonær programmering endres strukturen til løseren lite når den går fra en mutasjon til en annen, dvs. det er ingen omfordeling av sannsynligheter som vil opprettholde mutasjonene som førte til suksess i forrige trinn. Søket etter den optimale strukturen er mer tilfeldig og ikke-målrettet, noe som forsinker søkeprosessen, men gir best tilpasning til spesifikke skiftende forhold.

Den strukturelle tilnærmingen refererer til forsøk på å bygge AI-systemer ved å modellere strukturen til den menneskelige hjernen. I løpet av de siste ti årene har fenomenet med en eksplosjon av interesse for strukturelle metoder for selvorganisering - nevrale nettverksmodellering, som er vellykket brukt i forskjellige felt - business, medisin, teknologi, geologi, fysikk, i.e. der det er nødvendig for å løse problemer med prognoser, klassifisering eller kontroll.

Evnen til et nevralt nettverk til å lære ble først studert av J. McCulloch og W. Pitt, da deres arbeid "The logical calculus of ideas related to nervous activity" i 1943 ble publisert. Den presenterte en modell av et nevron og formulerte prinsippene for å konstruere kunstige nevrale nettverk.

En stor drivkraft til utviklingen av nevrokybernetikk ble gitt av den amerikanske nevrofysiologen F. Rosenblatt, som i 1962 foreslo sin modell av et nevralt nettverk, perceptronen. Opprinnelig mottatt med stor entusiasme, ble perceptronen snart under intenst angrep fra store vitenskapelige myndigheter. Og selv om en detaljert analyse av deres argumenter viser at de ikke helt utfordret perceptronen som Rosenblatt foreslo, ble storskala forskning på nevrale nettverk begrenset i nesten 10 år.

En annen viktig klasse av nevrale systemer ble introdusert av Finn T. Kohonen. Denne klassen har et fint navn: "selvorganiserende tilstandskartlegginger som bevarer topologien til sensorrommet". Kohonens teori bruker aktivt teorien om adaptive systemer, som ble utviklet over mange år av akademiker ved det russiske vitenskapsakademiet Ya.Z. Tsypkin.

Det er nå veldig populært over hele verden å vurdere evnene til læringssystemer, spesielt nevrale nettverk, basert på dimensjonsteorien, opprettet i 1966 av sovjetiske matematikere V.N. Vapnik og A.Ya. Chervonenkis. En annen klasse av nevrallignende modeller er representert av tilbake-propagasjonsnettverk, i utviklingen av moderne modifikasjoner som Prof. A.N. Gorban og Krasnoyarsk-skolen for nevroinformatikk ledet av ham. Den russiske foreningen for nevroinformatikk under ledelse av president V.L. Dunin-Barkovsky.

Hele nevrale nettverkstilnærmingen er basert på ideen om å bygge en dataenhet fra et stort antall enkle elementer som jobber parallelt - formelle nevroner. Disse nevronene fungerer uavhengig av hverandre og er sammenkoblet av enveis informasjonsoverføringskanaler. Kjernen i nevrale nettverkskonsepter er ideen om at hvert enkelt nevron kan modelleres med ganske enkle funksjoner, og at hele hjernens kompleksitet, fleksibiliteten i dens funksjon og andre viktige kvaliteter bestemmes av forbindelsene mellom nevroner. Det ultimate uttrykket for dette synspunktet kan være slagordet: "strukturen av forbindelser er alt, egenskapene til elementer er ingenting."

Nevrale nettverk (NN) er en veldig kraftig modelleringsteknikk som lar deg reprodusere ekstremt komplekse avhengigheter som er ikke-lineære av natur. Som regel brukes et nevralt nettverk når antakelser om typen koblinger mellom innganger og utganger er ukjente (selv om det selvfølgelig kreves et sett med heuristisk kunnskap fra brukeren om hvordan man velger og forbereder data, velg ønsket nettverk arkitektur og tolke resultatene).

Representative data mates til inngangen til det nevrale nettverket og en læringsalgoritme lanseres som automatisk analyserer datastrukturen og genererer et forhold mellom input og output. To typer algoritmer brukes for å trene NN: kontrollert ("overvåket læring") og uovervåket ("uovervåket").

Det enkleste nettverket har strukturen til en flerlags perceptron med direkte signaloverføring (se fig. 3), som er preget av den mest stabile oppførselen. Inndatalaget brukes til å legge inn verdiene til de innledende variablene, deretter behandles nevronene til mellom- og utgangslagene sekvensielt. Hver av de skjulte og utgående nevronene er som regel koblet til alle elementene i det forrige laget (for de fleste nettverksalternativer er et komplett system med tilkoblinger å foretrekke). Ved nodene til nettverket beregner det aktive nevronet sin aktiveringsverdi ved å ta den vektede summen av utgangene til elementene i det forrige laget og trekke terskelverdien fra den. Aktiveringsverdien konverteres deretter ved hjelp av en aktiveringsfunksjon (eller overføringsfunksjon) og resultatet er utgangen fra nevronet. Etter at hele nettverket har fungert, blir utgangsverdiene til elementene i det siste laget tatt som utdata fra hele nettverket som helhet.

Ris. 3.

Sammen med flerlagsperseptronmodellen dukket det senere opp andre modeller av nevrale nettverk, som skilte seg i strukturen til individuelle nevroner, i topologien til forbindelser mellom dem, og i læringsalgoritmer. Blant de mest kjente alternativene nå er backpropagation NN-er basert på radielle basisfunksjoner, generaliserte regresjonsnettverk, Hopfield og Hamming NN-er, selvorganiserende Kohonen-kart, stokastiske nevrale nettverk, etc. Det er arbeid med tilbakevendende nettverk (dvs. som inneholder tilbakemeldinger som fører tilbake fra fjernere til nærmere nevroner) som kan ha svært kompleks atferdsdynamikk. Selvorganiserende (voksende eller utviklende) nevrale nettverk begynner å bli brukt effektivt, noe som i mange tilfeller viser seg å være mer å foretrekke enn tradisjonelle fullt tilkoblede nevrale nettverk.

Modeller basert på den menneskelige hjernen er preget av både enkel parallellisering av algoritmer og den tilhørende høye ytelsen, og ikke for mye ekspressivitet av de presenterte resultatene, noe som ikke bidrar til utvinning av ny kunnskap om det simulerte miljøet. Derfor er hovedformålet med nevrale nettverksmodeller prognoser.

En viktig betingelse for bruk av NN, så vel som eventuelle statistiske metoder, er et objektivt eksisterende forhold mellom kjente inngangsverdier og en ukjent respons. Denne forbindelsen kan være tilfeldig, forvrengt av støy, men den må eksistere. Dette forklares for det første av det faktum at iterative algoritmer for rettet opptelling av kombinasjoner av nevrale nettverksparametere viser seg å være svært effektive og veldig raske bare hvis kvaliteten på de første dataene er god. Imidlertid, hvis denne betingelsen ikke er oppfylt, vokser antallet iterasjoner raskt og beregningskompleksiteten er sammenlignbar med den eksponentielle kompleksiteten til algoritmene for uttømmende oppregning av mulige tilstander. For det andre har nettverket en tendens til å lære, for det første, hva som er lettest å lære, og under forhold med sterk usikkerhet og støyende funksjoner, er dette først og fremst artefakter og "falsk korrelasjon"-fenomener.

Utvelgelsen av informative variabler i tradisjonell regresjon og taksonomi utføres ved å "veie" funksjoner ved å bruke ulike statistiske kriterier og trinnvise prosedyrer basert, i en eller annen form, på analyse av koeffisienter for partielle korrelasjoner eller kovarianser. For disse formålene brukes forskjellige sekvensielle (påfølgende) prosedyrer, som ikke alltid fører til et resultat nær nok det optimale. En effektiv automatisert tilnærming til valg av signifikante inngangsvariabler kan implementeres ved hjelp av en genetisk algoritme.

I denne forbindelse, i det generelle opplegget for statistisk modellering av AI-metoder, anbefales det å utføre to forskjellige prosedyrer sekvensielt:

  • - ved hjelp av evolusjonære metoder i det binære rommet av funksjoner, søkes det etter en slik minimumskombinasjon av variabler, som gir et lite tap av informasjon i de originale dataene,
  • - den minimerte datamatrisen som ble oppnådd på forrige trinn mates til inngangen til det nevrale nettverket for trening.

Kunstig intelligens (AI, eng. Artificial intelligence, AI) - vitenskapen og teknologien for å lage intelligente maskiner, spesielt intelligente dataprogrammer. AI er relatert til den lignende oppgaven med å bruke datamaskiner for å forstå menneskelig intelligens, men er ikke nødvendigvis begrenset til biologisk plausible metoder.

Hva er kunstig intelligens

Intelligens(fra latin intellectus - sansning, persepsjon, forståelse, forståelse, konsept, fornuft), eller sinn - kvaliteten på psyken, bestående av evnen til å tilpasse seg nye situasjoner, evnen til å lære og huske basert på erfaring, forstå og anvende abstrakte begreper og bruke egen kunnskap til miljøledelse. Intelligens er en generell evne til erkjennelse og løsning av vanskeligheter, som kombinerer alle de kognitive evnene til en person: sansning, persepsjon, minne, representasjon, tenkning, fantasi.

På begynnelsen av 1980-tallet Dataforskerne Barr og Feigenbaum foreslo følgende definisjon av kunstig intelligens (AI):


Senere begynte en rekke algoritmer og programvaresystemer å bli referert til som AI, som kjennetegner at de kan løse noen problemer på samme måte som en person som tenker på løsningen deres ville gjort.

Hovedegenskapene til AI er språkforståelse, læring og evnen til å tenke og, viktigere, handle.

AI er et kompleks av relaterte teknologier og prosesser som utvikler seg kvalitativt og raskt, for eksempel:

  • tekstbehandling på naturlig språk
  • ekspertsystemer
  • virtuelle agenter (chatbots og virtuelle assistenter)
  • anbefalingssystemer.

AI-forskning

  • Hovedartikkel: Forskning innen kunstig intelligens

AI-standardisering

2018: Utvikling av standarder innen kvantekommunikasjon, AI og smartbyen

Den 6. desember 2018 begynte Cyber-Physical Systems Technical Committee på grunnlag av RVC sammen med SafeNet Regional Engineering Center å utvikle et sett med standarder for markedene til National Technology Initiative (NTI) og den digitale økonomien. Innen mars 2019 er det planlagt å utvikle tekniske standardiseringsdokumenter innen kvantekommunikasjon, og , rapporterte RVC. Les mer.

Virkningen av kunstig intelligens

Risiko for utviklingen av menneskelig sivilisasjon

Påvirkning på økonomi og næringsliv

  • Virkningen av kunstig intelligens-teknologier på økonomien og næringslivet

Påvirkning på arbeidsmarkedet

Kunstig intelligens skjevhet

I hjertet av alt som er praksisen med AI (maskinoversettelse, talegjenkjenning, naturlig språkbehandling, datasyn, automatisering av kjøring og mer) er dyp læring. Dette er en undergruppe av maskinlæring, preget av bruk av nevrale nettverksmodeller, som kan sies å etterligne måten hjernen fungerer på, så de kan neppe klassifiseres som AI. Enhver nevrale nettverksmodell er trent på store datasett, så den tilegner seg noen "ferdigheter", men hvordan den bruker dem er fortsatt uklart for skaperne, noe som til slutt blir et av de viktigste problemene for mange dyplæringsapplikasjoner. Grunnen er at en slik modell jobber med bilder formelt, uten noen forståelse for hva den gjør. Er et slikt AI-system og kan systemer bygget på grunnlag av maskinlæring stole på? Betydningen av svaret på det siste spørsmålet går utover vitenskapelige laboratorier. Derfor har medias oppmerksomhet på fenomenet, kalt AI-bias, eskalert merkbart. Det kan oversettes som "AI bias" eller "AI bias". Les mer.

Kunstig intelligens-teknologimarkedet

AI-markedet i Russland

Det globale AI-markedet

Anvendelser av AI

Bruksområdene til AI er ganske brede og dekker både teknologier som er kjent for å høre, og nye nye områder som er langt fra masseanvendelse, med andre ord, dette er hele spekteret av løsninger, fra støvsugere til romstasjoner. Det er mulig å dele opp alt deres mangfold i henhold til kriteriet om nøkkelpunkter for utvikling.

AI er ikke et monolitisk fagområde. Dessuten fremstår noen AI-teknologier som nye undersektorer av økonomien og separate enheter, mens de samtidig betjener de fleste områder i økonomien.

Utviklingen av bruken av AI fører til tilpasning av teknologier i klassiske sektorer av økonomien langs hele verdikjeden og transformerer dem, noe som fører til algoritmisering av nesten all funksjonalitet, fra logistikk til bedriftsledelse.

Bruk av AI til forsvar og militære formål

Bruk i utdanning

Bruk av AI i næringslivet

AI i kraftbransjen

  • På designnivå: forbedret prognose for produksjon og etterspørsel etter energiressurser, vurdering av påliteligheten til kraftgenererende utstyr, automatisering av produksjonsøkning i tilfelle etterspørselsøkning.
  • På produksjonsnivå: optimalisere forebyggende vedlikehold av utstyr, øke produksjonseffektiviteten, redusere tap, forhindre tyveri av energiressurser.
  • På kampanjenivå: optimering av priser avhengig av tidspunkt på dagen og dynamisk fakturering.
  • På servicenivå: automatisk valg av den mest lønnsomme leverandøren, detaljert forbruksstatistikk, automatisert kundeservice, energioptimalisering basert på kundenes vaner og atferd.

AI i produksjon

  • På designnivå: forbedre effektiviteten av ny produktutvikling, automatisert evaluering av leverandører og analyse av krav til reservedeler og deler.
  • På produksjonsnivå: forbedre prosessen med å utføre oppgaver, automatisere samlebånd, redusere antall feil, redusere leveringstiden for råvarer.
  • På kampanjenivå: prognoser for volumet av støtte- og vedlikeholdstjenester, prisstyring.
  • På nivået for tjenestelevering: forbedring av flåteruteplanlegging, etterspørsel etter flåteressurser, forbedring av kvaliteten på opplæring av serviceingeniører.

AI i banker

  • Mønstergjenkjenning - brukt inkl. å gjenkjenne kunder i filialer og sende dem spesialiserte tilbud.

AI i transport

  • Bilindustrien er på randen av en revolusjon: 5 utfordringer i epoken med selvkjørende kjøring

AI i logistikk

AI i brygging

Bruk av AI i offentlig administrasjon

AI i rettsmedisin

  • Mønstergjenkjenning - brukt inkl. å oppdage kriminelle i det offentlige rom.
  • I mai 2018 ble det kjent om bruken av kunstig intelligens av det nederlandske politiet for å etterforske komplekse forbrytelser.

Ifølge The Next Web har rettshåndhevelse begynt å digitalisere mer enn 1500 rapporter og 30 millioner sider relatert til kalde saker. Materialer blir overført til et dataformat, fra og med 1988, der forbrytelsen ikke ble oppklart på minst tre år, og lovbryteren ble dømt til mer enn 12 års fengsel.

Når alt innhold er digitalisert, vil det kobles til et maskinlæringssystem som vil analysere postene og avgjøre hvilke saker som bruker best bevis. Dette bør redusere tiden det tar å behandle saker og løse tidligere og fremtidige forbrytelser fra uker til dager.

Kunstig intelligens vil fordele saker i henhold til deres "løselighet" og indikere de mulige resultatene av DNA-undersøkelsen. Deretter planlegges det å automatisere analysen på andre områder av rettsmedisinsk vitenskap og kanskje til og med dekke data på områder som samfunnsvitenskap og vitnesbyrd.

I tillegg, ifølge en av utviklerne av systemet Jeroen Hammer (Jeroen Hammer), kan API-funksjoner for partnere bli utgitt i fremtiden.


Det nederlandske politiet har en spesialenhet som spesialiserer seg på utvikling av nye teknologier for å løse forbrytelser. Det var han som laget AI-systemet for raskt å søke etter kriminelle på bevisene.

AI i rettsvesenet

Utviklingen innen kunstig intelligens vil bidra til å radikalt endre rettssystemet, gjøre det mer rettferdig og fritt for korrupsjonsordninger. Denne oppfatningen ble uttrykt sommeren 2017 av Vladimir Krylov, doktor i tekniske vitenskaper, teknisk konsulent for Artezio.

Forskeren mener at AI-løsningene som allerede eksisterer kan brukes med hell på ulike områder av økonomien og det offentlige liv. Eksperten påpeker at AI er vellykket brukt i medisin, men i fremtiden kan det endre rettssystemet fullstendig.

"Når man ser daglige nyhetsrapporter om utviklingen innen AI, blir man bare overrasket over utømmeligheten til fantasien og fruktbarheten til forskere og utviklere på dette feltet. Rapporter om vitenskapelig forskning blir stadig ispedd rapporter om nye produkter som bryter inn på markedet og rapporter om fantastiske resultater oppnådd gjennom bruk av AI på forskjellige felt. Hvis vi snakker om de forventede hendelsene, akkompagnert av en merkbar hype i media, der AI igjen vil bli nyhetens helt, så vil jeg sannsynligvis ikke risikere å lage teknologiske prognoser. Jeg kan anta at neste begivenhet vil være opptredenen et sted av en ekstremt kompetent domstol i form av kunstig intelligens, rettferdig og ubestikkelig. Dette vil trolig skje i 2020-2025. Og prosessene som vil finne sted i denne domstolen vil føre til uventede refleksjoner og ønske fra mange mennesker om å overføre de fleste prosessene for å styre det menneskelige samfunn til AI.

Forskeren anerkjenner bruken av kunstig intelligens i rettssystemet som et "logisk skritt" i utviklingen av lovgivende likhet og rettferdighet. Maskinsinnet er ikke gjenstand for korrupsjon og følelser, kan strengt følge det lovgivende rammeverket og ta avgjørelser som tar hensyn til mange faktorer, inkludert dataene som kjennetegner deltakerne i tvisten. I analogi med det medisinske feltet kan robotdommere operere med stordata fra offentlige tjenestedepoter. Det kan antas at maskinintelligens vil være i stand til raskt å behandle data og ta hensyn til mye flere faktorer enn en menneskelig dommer.

Psykologiske eksperter mener imidlertid at fraværet av en følelsesmessig komponent i behandlingen av rettssaker vil påvirke kvaliteten på avgjørelsen negativt. Maskinrettens dom kan vise seg å være for grei, uten å ta hensyn til betydningen av folks følelser og humør.

Maleri

I 2015 testet Google-teamet nevrale nettverk for å se om de kunne lage bilder på egenhånd. Deretter ble kunstig intelligens trent på eksemplet med et stort antall forskjellige bilder. Men da maskinen ble "bedt" om å skildre noe på egen hånd, viste det seg at den tolker verden rundt oss på en litt merkelig måte. For eksempel, for oppgaven med å tegne manualer, mottok utviklerne et bilde der metallet var forbundet med menneskelige hender. Dette skjedde sannsynligvis på grunn av at de analyserte bildene med manualer på treningsstadiet inneholdt hender, og det nevrale nettverket feiltolket dette.

26. februar 2016, på en spesiell auksjon i San Francisco, samlet Google-representanter inn rundt 98 000 dollar fra psykedeliske malerier malt av kunstig intelligens. Disse midlene ble donert til veldedighet. Et av de mest vellykkede bildene av bilen er presentert nedenfor.

Et bilde malt av Googles kunstig intelligens.

Han påpeker: «Problemet er at vi ennå ikke generelt kan bestemme hvilke beregningsprosedyrer vi vil kalle intelligente. Vi forstår noen av intelligensens mekanismer og forstår ikke andre. Derfor forstås intelligens innenfor denne vitenskapen bare som den beregningsmessige komponenten av evnen til å oppnå mål i verden.

Samtidig er det et synspunkt om at intelligens bare kan være et biologisk fenomen.

Som formannen for St. Petersburg-avdelingen til den russiske foreningen for kunstig intelligens T. A. Gavrilova påpeker, på engelsk uttrykket kunstig intelligens har ikke den litt fantastiske antropomorfe fargen som den fikk i en ganske mislykket russisk oversettelse. Ord intelligens betyr "evnen til rimelig rimelighet", og slett ikke "intelligens", som det finnes en engelsk ekvivalent for intellekt .

Medlemmer av den russiske foreningen for kunstig intelligens gir følgende definisjoner av kunstig intelligens:

En av de private definisjonene av intelligens, felles for en person og en "maskin", kan formuleres som følger: "Intelligence er et systems evne til å lage programmer (primært heuristiske) i løpet av selvlæring for å løse problemer med en viss klasse av kompleksitet og løse disse problemene”.

Ofte kalles kunstig intelligens også den enkleste elektronikken for å indikere tilstedeværelsen av sensorer og automatisk valg av driftsmodus. Ordet kunstig betyr i dette tilfellet at du ikke skal forvente at systemet skal være i stand til å finne en ny driftsmodus i en situasjon som utviklerne ikke har sett for seg.

Forutsetninger for utvikling av vitenskapen om kunstig intelligens

Historien om kunstig intelligens som en ny vitenskapelig retning begynner på midten av 1900-tallet. På dette tidspunktet hadde mange forutsetninger for opprinnelsen allerede blitt dannet: blant filosofer hadde det lenge vært uenigheter om menneskets natur og prosessen med å kjenne verden, nevrofysiologer og psykologer utviklet en rekke teorier om arbeidet til den menneskelige hjerne og tenkning, økonomer og matematikere stilte spørsmål om optimale beregninger og representasjon av kunnskap om verden i formalisert form; endelig ble grunnlaget for den matematiske beregningsteorien - teorien om algoritmer - født og de første datamaskinene ble opprettet.

Mulighetene til nye maskiner når det gjelder datahastighet viste seg å være større enn menneskelige, så spørsmålet snek seg inn i det vitenskapelige samfunnet: hva er grensene for datamaskiners evner og vil maskiner nå nivået av menneskelig utvikling? I 1950 skrev en av pionerene innen datateknologi, den engelske forskeren Alan Turing, en artikkel med tittelen "Can a machine think?" , som beskriver en prosedyre der det vil være mulig å bestemme øyeblikket når en maskin blir lik med tanke på intelligens med en person, kalt Turing-testen.

Historien om utviklingen av kunstig intelligens i Sovjetunionen og Russland

I USSR begynte arbeidet med kunstig intelligens på 1960-tallet. En rekke banebrytende studier ble utført ved Moskva-universitetet og Vitenskapsakademiet, ledet av Veniamin Pushkin og D. A. Pospelov.

I 1964 ble arbeidet til Leningrad-logikeren Sergei Maslov "En omvendt metode for å etablere deriverbarhet i den klassiske predikatregningen" publisert, der det for første gang ble foreslått en metode for automatisk å søke etter bevis for teoremer i predikatkalkulen.

Fram til 1970-tallet, i USSR, ble all AI-forskning utført innenfor rammen av kybernetikk. I følge D. A. Pospelov var vitenskapene "datavitenskap" og "kybernetikk" blandet på den tiden, på grunn av en rekke akademiske tvister. Først på slutten av 1970-tallet i USSR begynte de å snakke om den vitenskapelige retningen "kunstig intelligens" som en gren av informatikk. Samtidig ble informatikk selv født, og underkastet stamfaren "kybernetikk". På slutten av 1970-tallet ble det laget en forklarende ordbok for kunstig intelligens, en trebinders oppslagsbok om kunstig intelligens og en encyklopedisk ordbok om informatikk, der seksjonene "Kybernetikk" og "Kunstig intelligens" er inkludert, sammen med andre seksjoner , i informatikk. Begrepet "datavitenskap" ble utbredt på 1980-tallet, og begrepet "kybernetikk" forsvant gradvis fra sirkulasjonen, og ble bare værende i navnene på de institusjonene som oppsto under tiden med den "kybernetiske boomen" på slutten av 1950-tallet og begynnelsen av 1960-tallet. Dette synet på kunstig intelligens, kybernetikk og informatikk deles ikke av alle. Dette skyldes det faktum at i Vesten er grensene for disse vitenskapene noe annerledes.

Tilnærminger og veibeskrivelser

Tilnærminger til å forstå problemet

Det finnes ikke noe enkelt svar på spørsmålet om hva kunstig intelligens gjør. Nesten hver forfatter som skriver en bok om AI tar utgangspunkt i en eller annen definisjon i den, med tanke på prestasjonene til denne vitenskapen i lyset.

  • synkende (engelsk) Top Down AI), semiotisk - opprettelsen av ekspertsystemer, kunnskapsbaser og slutningssystemer som imiterer mentale prosesser på høyt nivå: tenkning, resonnement, tale, følelser, kreativitet, etc.;
  • stigende (engelsk) Bottom Up AI), biologisk - studiet av nevrale nettverk og evolusjonære beregninger som modellerer intellektuell atferd basert på biologiske elementer, samt opprettelsen av passende datasystemer, for eksempel en nevrodatamaskin eller biodatamaskin.

Sistnevnte tilnærming gjelder strengt tatt ikke vitenskapen om AI i den forstand gitt av John McCarthy - de er kun forent av et felles endelig mål.

Turing-test og intuitiv tilnærming

En empirisk test ble foreslått av Alan Turing i artikkelen "Computing Machines and the Mind" (Eng. Datamaskineri og intelligens ) publisert i 1950 i det filosofiske tidsskriftet Mind". Hensikten med denne testen er å bestemme muligheten for kunstig tenkning, nær menneskelig.

Standardtolkningen av denne testen er som følger: " En person samhandler med én datamaskin og én person. Basert på svarene på spørsmålene, må han bestemme hvem han snakker med: med en person eller et dataprogram. Oppgaven til et dataprogram er å villede en person, og tvinge ham til å ta feil valg.". Alle testdeltakerne ser ikke hverandre.

  • Den mest generelle tilnærmingen antar at AI vil være i stand til å vise menneskelignende oppførsel i normale situasjoner. Denne ideen er en generalisering av Turing-testtilnærmingen, som sier at en maskin vil bli intelligent når den er i stand til å føre en samtale med en vanlig person, og han vil ikke være i stand til å forstå at han snakker til maskinen (den samtale gjennomføres ved korrespondanse).
  • Science fiction-forfattere foreslår ofte en annen tilnærming: AI vil oppstå når en maskin er i stand til å føle og skape. Så eieren av Andrew Martin fra "Bicentennial Man" begynner å behandle ham som en person når han lager et leketøy i henhold til sitt eget design. Og Data fra Star Trek, som er i stand til å kommunisere og lære, drømmer om å få følelser og intuisjon.

Den siste tilnærmingen vil imidlertid neppe holde seg under gransking mer detaljert. For eksempel er det lett å lage en mekanisme som vil evaluere noen parametere i det eksterne eller interne miljøet og svare på deres ugunstige verdier. Vi kan si om et slikt system at det har følelser ("smerte" er en reaksjon på sjokksensoren, "sult" er en reaksjon på lav batterilading, etc.). Og klyngene skapt av Kohonen-kart, og mange andre produkter av "intelligente" systemer, kan betraktes som en slags kreativitet.

Symbolsk tilnærming

Historisk sett var den symbolske tilnærmingen den første i digitale datamaskiners tid, siden det var etter opprettelsen av Lisp, det første symbolske dataspråket, at forfatteren ble trygg på muligheten for praktisk talt å begynne å implementere disse intelligensmidlene. Den symbolske tilnærmingen lar en operere med svakt formaliserte representasjoner og deres betydninger.

Suksessen og effektiviteten til å løse nye problemer avhenger av evnen til å trekke ut kun viktig informasjon, noe som krever fleksibilitet i abstraksjonsmetoder. Mens et vanlig program angir en av sine egne måter å tolke data på, og det er grunnen til at arbeidet ser partisk og rent mekanisk ut. I dette tilfellet er det bare en person, en analytiker eller en programmerer, som kan løse et intellektuelt problem, uten å kunne overlate dette til en maskin. Som et resultat opprettes en enkelt abstraksjonsmodell, et system av konstruktive enheter og algoritmer. Og fleksibilitet og allsidighet resulterer i betydelige ressurskostnader for ikke-typiske oppgaver, det vil si at systemet går tilbake fra intelligens til brute force.

Hovedtrekket ved symbolske beregninger er opprettelsen av nye regler under programkjøring. Mens mulighetene til ikke-intelligente systemer fullføres like før evnen til i det minste å indikere nye vanskeligheter. Dessuten er disse vanskelighetene ikke løst, og til slutt forbedrer ikke datamaskinen slike evner på egen hånd.

Ulempen med den symbolske tilnærmingen er at slike åpne muligheter oppleves av uforberedte mennesker som mangel på verktøy. Dette ganske kulturelle problemet er delvis løst ved logisk programmering.

logisk tilnærming

Den logiske tilnærmingen til å lage kunstige intelligenssystemer er rettet mot å lage ekspertsystemer med logiske modeller av kunnskapsbaser ved å bruke predikatspråket.

Det logiske programmeringsspråket og systemet Prolog ble tatt i bruk som treningsmodellen for kunstige intelligenssystemer på 1980-tallet. Kunnskapsbaser skrevet på Prolog-språket representerer sett med fakta og slutningsregler skrevet på språket til logiske predikater.

Den logiske modellen for kunnskapsbaser lar deg registrere ikke bare spesifikk informasjon og data i form av fakta på Prolog-språket, men også generalisert informasjon ved å bruke reglene og prosedyrene for slutning, inkludert logiske regler for å definere konsepter som uttrykker viss kunnskap som spesifikk og generalisert informasjon.

Generelt er forskning på problemene med kunstig intelligens innenfor rammen av en logisk tilnærming til utforming av kunnskapsbaser og ekspertsystemer rettet mot opprettelse, utvikling og drift av intelligente informasjonssystemer, inkludert spørsmål om undervisning av studenter og skolebarn, som samt opplæring av brukere og utviklere av slike intelligente informasjonssystemer.

Agentbasert tilnærming

Den siste tilnærmingen, utviklet siden tidlig på 1990-tallet, kalles agentbasert tilnærming, eller tilnærming basert på bruk av intelligente (rasjonelle) agenter. I følge denne tilnærmingen er intelligens den beregningsmessige delen (grovt sett planlegging) av evnen til å nå målene som er satt for en intelligent maskin. En slik maskin i seg selv vil være en intelligent agent, som oppfatter verden rundt seg ved hjelp av sensorer, og i stand til å påvirke objekter i miljøet ved hjelp av aktuatorer.

Denne tilnærmingen fokuserer på de metodene og algoritmene som vil hjelpe en intelligent agent til å overleve i miljøet mens han utfører sin oppgave. Så her studeres veisøkings- og beslutningsalgoritmer mye mer nøye.

Hybrid tilnærming

Hovedartikkel: Hybrid tilnærming

Hybrid tilnærming foreslår det bare den synergistiske kombinasjonen av nevrale og symbolske modeller oppnår hele spekteret av kognitive og beregningsmessige evner. For eksempel kan ekspertinferensregler genereres av nevrale nettverk, og generative regler oppnås ved bruk av statistisk læring. Tilhengere av denne tilnærmingen mener at hybride informasjonssystemer vil være mye sterkere enn summen av ulike konsepter hver for seg.

Modeller og metoder for forskning

Symbolsk modellering av tankeprosesser

Hovedartikkel: Begrunnelse Modellering

Ved å analysere historien til AI kan man skille ut en så omfattende retning som resonnerende modellering. I mange år har utviklingen av denne vitenskapen beveget seg langs denne veien, og nå er det et av de mest utviklede områdene innen moderne AI. Resonneringsmodellering innebærer å lage symbolske systemer, ved inngangen til hvilke en bestemt oppgave er satt, og ved utgangen er det nødvendig for å løse den. Som regel er det foreslåtte problemet allerede formalisert, det vil si oversatt til matematisk form, men har enten ikke en løsningsalgoritme, eller det er for komplisert, tidkrevende, etc. Denne retningen inkluderer: teorembevis, beslutningstaking, og spill teori, planlegging og utsendelse , prognoser .

Arbeide med naturlige språk

En viktig retning er naturlig språkbehandling, som analyserer mulighetene for å forstå, bearbeide og generere tekster på et «menneskelig» språk. Innenfor denne retningen er målet en slik naturlig språkbehandling som vil kunne tilegne seg kunnskap på egen hånd ved å lese eksisterende tekst tilgjengelig på Internett. Noen direkte anvendelser av naturlig språkbehandling inkluderer informasjonsinnhenting (inkludert tekstutvinning) og maskinoversettelse.

Representasjon og bruk av kunnskap

Retning kunnskapsteknikk kombinerer oppgavene med å innhente kunnskap fra enkel informasjon, deres systematisering og bruk. Denne retningen er historisk forbundet med skapelsen ekspertsystemer- programmer som bruker spesialiserte kunnskapsbaser for å oppnå pålitelige konklusjoner om ethvert problem.

Produksjon av kunnskap fra data er et av de grunnleggende problemene ved datautvinning. Det finnes ulike tilnærminger for å løse dette problemet, inkludert de som er basert på nevrale nettverksteknologi, ved å bruke prosedyrer for nevrale nettverksverbalisering.

Maskinlæring

Problemer maskinlæring gjelder prosessen uavhengig tilegnelse av kunnskap av et intellektuelt system i prosessen med dets drift. Denne retningen har vært sentral helt fra starten av utviklingen av AI. I 1956, på Dartmund Summer Conference, skrev Ray Solomonoff et papir om en uovervåket probabilistisk maskin kalt Inductive Inference Machine.

Robotikk

Hovedartikkel: Intelligent robotikk

Maskinkreativitet

Hovedartikkel: Maskinkreativitet

Naturen til menneskelig kreativitet er enda mindre forstått enn intelligensens natur. Likevel eksisterer dette området, og her stilles problemene med å skrive musikk, litterære verk (ofte dikt eller eventyr), kunstnerisk kreativitet. Opprettelsen av realistiske bilder er mye brukt i film- og spillindustrien.

Separat fremheves studiet av problemene med teknisk kreativitet til kunstige intelligenssystemer. Teorien om oppfinnsom problemløsning, foreslått i 1946 av G. S. Altshuller, markerte begynnelsen på slik forskning.

Ved å legge til denne funksjonen til et hvilket som helst intelligent system kan du veldig tydelig demonstrere nøyaktig hva systemet oppfatter og hvordan det forstår. Ved å legge til støy i stedet for manglende informasjon eller filtrere støy med den kunnskapen som er tilgjengelig i systemet, produseres konkrete bilder fra abstrakt kunnskap som lett kan oppfattes av en person, dette er spesielt nyttig for intuitiv og lavverdi kunnskap, verifikasjon av som i en formell form krever betydelig mental innsats.

Andre forskningsområder

Til slutt er det mange anvendelser av kunstig intelligens, som hver danner en nesten uavhengig retning. Eksempler inkluderer programmeringsintelligens i dataspill, ikke-lineær kontroll, intelligente informasjonssikkerhetssystemer.

Man ser at mange forskningsområder overlapper hverandre. Dette er sant for enhver vitenskap. Men innen kunstig intelligens er forholdet mellom tilsynelatende ulike retninger spesielt sterkt, og dette skyldes den filosofiske debatten om sterk og svak AI.

Moderne kunstig intelligens

Det er to retninger for AI-utvikling:

  • løse problemer knyttet til tilnærming av spesialiserte AI-systemer til menneskelige evner, og deres integrasjon, som er implementert av menneskelig natur ( se Intelligence Amplification);
  • skapelsen av kunstig intelligens, som representerer integreringen av allerede opprettede AI-systemer i et enkelt system som er i stand til å løse menneskehetens problemer ( se Sterk og svak kunstig intelligens).

Men for øyeblikket, innen kunstig intelligens, er det involvering av mange fagområder som er mer praktiske enn grunnleggende for AI. Mange tilnærminger har blitt prøvd, men ingen forskergruppe har ennå kommet frem til fremveksten av kunstig intelligens. Nedenfor er bare noen av de mest bemerkelsesverdige AI-utviklingene.

applikasjon

Turnering RoboCup

Noen av de mest kjente AI-systemene er:

Banker bruker kunstige intelligenssystemer (AI) i forsikringsvirksomhet (aktuarmatematikk), når de spiller på børsen og forvalter eiendom. Mønstergjenkjenningsmetoder (inkludert både mer komplekse og spesialiserte og nevrale nettverk) er mye brukt i optisk og akustisk gjenkjenning (inkludert tekst og tale), medisinsk diagnostikk, spamfiltre, luftvernsystemer (målidentifikasjon), samt for å sikre en antall andre nasjonale sikkerhetsoppgaver.

Psykologi og kognitiv vitenskap

Metodikken for kognitiv modellering er designet for å analysere og ta beslutninger i dårlig definerte situasjoner. Det ble foreslått av Axelrod.

Den er basert på modellering av eksperters subjektive ideer om situasjonen og inkluderer: en metodikk for å strukturere situasjonen: en modell for å representere ekspertkunnskap i form av en signert digraf (kognitivt kart) (F, W), der F er en sett med situasjonsfaktorer, W er et sett med årsak-virkning-forhold mellom situasjonsfaktorer; metoder for situasjonsanalyse. For tiden utvikler metodikken for kognitiv modellering seg i retning av å forbedre apparatet for å analysere og modellere situasjonen. Her foreslås modeller for å forutsi utviklingen av situasjonen; metoder for å løse omvendte problemer.

Filosofi

Vitenskapen om å "skape kunstig intelligens" kunne ikke annet enn å tiltrekke seg oppmerksomheten til filosofer. Med fremveksten av de første intelligente systemene ble grunnleggende spørsmål om mennesket og kunnskap, og til dels om verdensordenen, reist.

De filosofiske problemene med å skape kunstig intelligens kan deles inn i to grupper, relativt sett, "før og etter utviklingen av AI". Den første gruppen svarer på spørsmålet: "Hva er AI, er det mulig å lage det, og hvis mulig, hvordan gjøre det?" Den andre gruppen (etikken om kunstig intelligens) stiller spørsmålet: "Hva er konsekvensene av opprettelsen av AI for menneskeheten?"

Begrepet "sterk kunstig intelligens" ble introdusert av John Searle, og hans tilnærming er preget av hans egne ord:

Dessuten ville et slikt program være mer enn bare en modell av sinnet; det vil bokstavelig talt være sinnet selv, i samme forstand som menneskesinnet er sinnet.

Samtidig er det nødvendig å forstå om et "rent kunstig" sinn ("metamind") er mulig, forstå og løse reelle problemer og samtidig blottet for følelser som er karakteristiske for en person og nødvendige for hans individuell overlevelse.

I kontrast foretrekker svake AI-forkjempere å se på programvare som bare et verktøy for å løse visse oppgaver som ikke krever hele spekteret av menneskelige kognitive evner.

Etikk

Science fiction

Temaet AI blir vurdert fra forskjellige vinkler i arbeidet til Robert Heinlein: hypotesen om fremveksten av AI-selvbevissthet når strukturen blir mer kompleks utover et visst kritisk nivå og det er interaksjon med omverdenen og andre sinnsbærere ( "The Moon Is a Harsh Mistress", "Time Enough For Love", karakterene Mycroft, Dora og Aya i "History of the Future"-serien), problemer med AI-utvikling etter hypotetisk selvbevissthet og noen sosiale og etiske problemer (" Fredag"). De sosiopsykologiske problemene med menneskelig interaksjon med AI blir også vurdert av Philip K. Dicks roman «Do Androids Dream of Electric Sheep? ”, også kjent fra filmatiseringen av Blade Runner.

Opprettelsen av virtuell virkelighet, kunstig intelligens, nanoroboter og mange andre problemer med filosofien om kunstig intelligens er beskrevet og i stor grad forventet i arbeidet til science fiction-forfatteren og filosofen Stanislav Lem. Spesielt viktig er futurologien Summen av teknologi. I tillegg beskriver eventyrene til Iyon the Quiet gjentatte ganger forholdet mellom levende vesener og maskiner: opprøret til datamaskinen ombord med påfølgende uventede hendelser (11. reise), tilpasningen av roboter i det menneskelige samfunn (“The Washing Tragedy” fra "Memories of Iyon the Quiet"), konstruksjonen av absolutt orden på planeten gjennom bearbeiding av levende innbyggere (24. reise), oppfinnelser av Corcoran og Diagoras ("Memoirs of Iyon the Quiet"), en psykiatrisk klinikk for roboter (" Memoirs of Iyon the Quiet"). I tillegg er det en hel syklus av historier og historier om Cyberiad, der nesten alle karakterene er roboter, som er fjerne etterkommere av roboter som rømte fra folk (de kaller folk bleke og anser dem som mytiske skapninger).

Filmer

Siden nesten 60-tallet, sammen med skrivingen av fantastiske historier og romaner, har det blitt laget filmer om kunstig intelligens. Mange romaner av forfattere anerkjent over hele verden blir filmet og blir klassikere av sjangeren, andre blir en milepæl i utviklingen av science fiction, som The Terminator og The Matrix.

se også

Notater

  1. FAQ fra John McCarthy, 2007
  2. M. Andrew. Virkelig liv og kunstig intelligens // "News of artificial intelligence", RAII, 2000
  3. Gavrilova T. A. Khoroshevsky V. F. Kunnskapsbaser for intelligente systemer: Lærebok for universiteter
  4. Averkin A. N., Gaaze-Rapoport M. G., Pospelov D. A. Explanatory Dictionary of Artificial Intelligence. - M.: Radio og kommunikasjon, 1992. - 256 s.
  5. G.S. Osipov. Kunstig intelligens: forskningens tilstand og et blikk inn i fremtiden
  6. Ilyasov F. N. Mind kunstig og naturlig // Proceedings of the Academy of Sciences of the Turkmen SSR, en serie samfunnsvitenskap. 1986. nr. 6. S. 46-54.
  7. Alan Turing, Kan maskiner tenke?
  8. Intelligente maskiner S. N. Korsakov
  9. D. A. Pospelov. Dannelsen av informatikk i Russland
  10. Om historien til kybernetikk i USSR. Essay en, essay to
  11. Jack Copeland. Hva er kunstig intelligens? 2000
  12. Alan Turing, Computing Machinery and Intelligence, Mind, vol. LIX, nei. 236, oktober 1950, s. 433-460.
  13. Naturlig språkbehandling:
  14. Naturlig språkbehandlingsapplikasjoner inkluderer informasjonsinnhenting (inkludert: tekstanalyse og maskinoversettelse):
  15. Gorban P.A. Nevrale nettverkskunnskapsutvinning fra data og datapsykoanalyse
  16. Maskinlæring:
  17. Alan Turing diskuterte som et sentralt tema allerede i 1950, i sin klassiske artikkel Computing Machinery and Intelligence. ()
  18. (pdf skannet kopi av originalen) (versjon publisert i 1957, An Inductive Inference Machine, "IRE Convention Record, Section on Information Theory, Part 2, s. 56-62)
  19. Robotikk:
  20. , s. 916–932
  21. , s. 908–915
  22. Blue Brain Project - Kunstig hjerne
  23. Mild-manered Watson spytter menneskelige motstandere på fare
  24. 20Q.net Inc.
  25. Axelrod R. The Structure of Decision: Kognitive kart over politiske eliter. - Princeton. University Press, 1976
  26. John Searle. Hjernens sinn - et dataprogram?
  27. Penrose R. Kongens nye sinn. Om datamaskiner, tenkning og fysikkens lover. - M .: URSS, 2005. - ISBN 5-354-00993-6
  28. AI som en global risikofaktor
  29. … vil lede deg til evig liv
  30. http://www.rc.edu.ru/rc/s8/intellect/rc_intellect_zaharov_2009.pdf Ortodoks syn på problemet med kunstig intelligens
  31. Harry Harrison. Turings valg. - M .: Eksmo-Press, 1999. - 480 s. - ISBN 5-04-002906-3

Litteratur

  • Datamaskinen lærer og begrunner (del 1) // Datamaskinen får intelligens = Artificial Intelligence Computer Images / red. V. L. Stefanyuk. - Moskva: Mir, 1990. - 240 s. - 100 000 eksemplarer. - ISBN 5-03-001277-X (russisk); ISBN 705409155
  • Devyatkov V.V. Kunstige intelligenssystemer / Kap. utg. I. B. Fedorov. - M .: Forlag av MSTU im. N. E. Bauman, 2001. - 352 s. - (Informatikk ved Teknisk universitet). - 3000 eksemplarer. - ISBN 5-7038-1727-7
  • Korsakov S.N. Inskripsjon av en ny måte å forske på ved hjelp av maskiner som sammenligner ideer / Ed. SOM. Mikhailov. - M .: MEPhI, 2009. - 44 s. - 200 eksemplarer. -

Vil kunstig intelligens (AI) seire over menneskeheten? Elon Musk, grunnleggeren av Tesla, benekter denne antagelsen. For å være sikker på dette har den kjente innovatøren investert 10 millioner amerikanske dollar i 37 forskjellige vitenskapelige prosjekter.

Til tross for kategoriskheten til Elon Musk og hans likesinnede, blant dem er Bill Gates og Stephen Hawking, spår de fleste forskere at folk tar i bruk AI. Man trenger bare å se på MindMeld (naturlig språkbehandling gjennom stemme- og chat-assistenter) eller VIV (utvikling av "smarte" assistenter). Det antas at de neste 10-15 årene vil være et vendepunkt for verdens befolkning. Dessuten vil introduksjonen ikke bare finne sted på informasjonsteknologinivå, men også i opinionen, lover og hverdagsvaner.

Dette skyldes to faktorer.

For det første kan en AI-robot automatisere prosesser som krever menneskelig inngripen. For det andre er den i stand til å behandle og analysere en enorm mengde informasjon. Fordelen med en datamaskin er at dens arbeidsevne ikke er relatert til den menneskelige faktoren, enten det er personlige problemer eller dårlig humør.

Dermed har kunstig intelligens en bred anvendelse: den er allestedsnærværende i medisin, industri, utdanning, landbruk, trafikk og hverdagsliv.

Medisin

AI-minne er verdsatt på dette området, så vel som evnen til å generere og sammenligne enorme mengder informasjon.
I flere år nå har alle hørt om DeepMind Health (utviklet av Google) – smarte assistenter som ikke bare gir råd til leger, men også finner ut den genetiske disposisjonen for patologier. Dermed identifiserer og utvikler IBM Watson allerede en behandlingsplan for 13 typer ondartede neoplasmer: fra livmorhalskreft til tykktarmen.

Kunstig intelligens kommer til unnsetning selv for pasienter. Stadig mer populært er telemedisin-applikasjoner som samler inn data fra treningsarmbånd og andre sensorer, samt «spørreskjemaer» som fastslår de eksakte symptomene og sykdommer hos pasienter. Så AI er i stand til å gjenkjenne tuberkulose og forstyrrelse av de indre organene, inkl. hjerne.

Noen av applikasjonene analyserer menneskelig tale og svarer verbalt, mens andre foretrekker skriftlig kommunikasjon. Søknader mottar nødvendig informasjon, og gir deretter anbefalinger om hva som skal gjøres videre, eller sender dataene til terapeuten. De mest populære smarte assistentene er Your.MD og Ada, som kan lastes ned fra App Store eller Google Play.

Spesiell vekt legges til systemer som er i stand til å utvikle nye medikamenter. Ifølge Pfizers toppsjef, Judy Sewards, tar det i gjennomsnitt 12 år å utvikle og bringe et nytt medikament på markedet. AI vil gjøre det mulig å lage en molekylær struktur og modellere et medikament, noe som vil øke kvaliteten og redusere tiden det tar å frigjøre nye legemidler. Pionerene i å lage superdatamaskiner som løser dette problemet er Atomwise og Berg Health.

Industri

Store industribedrifter i land som Japan, Kina, USA, Tyskland og Sveits investerer i ny teknologi. I dag er det en tendens til å redusere arbeidsplasser knyttet til åndsverk, og en økning i antall datamaskiner.

Følgende jobber vil lide i de kommende tiårene:

  1. Samling av detaljer. Hver dag er det flere og flere bemanningskutt. Roboten, som husker handlingssekvensen, takler sammenkoblingen av deler på egen hånd.
  2. Regnskapsberegninger. Sammenlignet med en person, beregner en maskin data nøyaktig og fører ikke "svart" og "hvit" bokføring, noe som er veldig gunstig for staten. Superdatamaskiner lærer og tar logiske avgjørelser.
  3. Utskifting av konsulenter. Roboten kan på lik linje med en person føre dialog med kjøper på høyt nivå og gi svar på standardspørsmål. Kommunikasjonsalgoritmen blir mer kompleks på grunn av maskinens evne til å lære og samle erfaring.

Robotisering i nær fremtid vil også påvirke yrker som sekretærer, kasserere, lastebilister og servitører. Et eksempel på vellykket implementering av AI var H&H line-anlegget. Eye-tracking-teknologien bidro til å spare 400 timer med trainee-trening på 1 år og redusere sjansen for ulykker.

MIT Technology Review rapporterte at Andrew Ng, en robotikk- og maskinlæringsforsker, utvikler et nytt prosjekt, Landing.AI. Den er designet for å etablere en mekanisme for produksjon i fabrikker og anlegg. Dens første partner er Foxconn, som produserer Apple-dingser.

utdanning

I nær fremtid vil utdanningsfeltet utvikle seg raskt i to retninger – adaptiv læring og proctoring.
Adaptiv læring er designet for å løse problemet med ulike akademiske prestasjoner hos elever og studenter. Faktum er at en person lærer materialet mye raskere og mer vellykket enn en annen. Derfor vil AI spore kunnskapsnivået til eleven og tilpasse rekkefølgen av emneblokker til hans evner, eller informere læreren om hvor godt eleven har lært stoffet. Et eksempel på et slikt system er Third Space Learning-plattformen, som for tiden er under utvikling.

Proctoring er kontroll av elever og studenter under gjennomføring av kontroll- og eksamensprøver. Hvis tidligere studenter var "på våpen" av webkameraet, nå kommer AI til unnsetning. Den sporer hvor ofte eleven ser bort fra dataskjermen, om han bytter fane i nettleseren, om det er ekstra stemmer i rommet. Så snart AI merker noe brudd, varsler den umiddelbart den menneskelige kontrolløren om det.

Men kan en maskin erstatte en vanlig lærer? Rosa Lukin, professor ved University College London, benekter dette. Ifølge henne er det verdt å finne et kompromiss. Målet er tross alt ikke å erstatte lærere med maskiner, men å forbedre utdanningsprosessen. Dette er definitivt ikke uten en menneskelig lærer.

Jordbruk

Forestillingen om at jordbruk og husdyrhold er etterslepende og gammeldagse næringer hører fortiden til. I dag er den intensive veksten av det globale AI-markedet i landbruksindustrien forårsaket av slike faktorer: innføring av et datastyringssystem, vanningsautomatisering, økning av produktiviteten til landbruksvekster gjennom innføring av treningsmetoder og en økning i antall av mennesker på planeten. Samtidig begrenses veksten av AI-markedet av de høye kostnadene ved å samle informasjon om jordbruksland.

Den utbredte introduksjonen av robotikk i landbruket er representert av slike utviklinger:

  • Ubemannede luftfartøyer. Droner utstyrt med radar- og GPS-overvåking sprøyter avlinger, gir pålitelig levering av farlige kjemikalier og flyfotografering.
  • Roboter for høsting. Hvis kornhøstere har eksistert lenge, så er det ganske nylig laget en robot som plukker jordbær.
  • AI ødelegger ugresset. Hortibot, utviklet av Aarhus Universitet (Aarhus Universitet) i Danmark, gjenkjenner og fjerner ugress på to måter: mekanisk og ved flekksprøyting med ugressmidler. Denne roboten var et virkelig gjennombrudd, fordi gjenkjennelsen av ugress fra nyttige planter er en stor suksess for moderne robotikk i landbruket. I tillegg lages det maskiner som gjenkjenner skadedyr og sykdommer i landbruksvekster.

I følge Energias Market Research-prognoser vil AI-markedet i landbruksindustrien vokse med 24,3 % innen 2024. Det vil bli aktivt utviklet i USA og Asia-Stillehavsregionen. Agworld, Farmlogs, Cropx, Microsoft, AGCO og andre ble inkludert i listen over sentrale aktører i markedet for intelligent agribusiness.

veitrafikk

Hensikten med å introdusere kunstig intelligens i dette området er å bekjempe trafikkork. Slike systemer fungerer allerede med suksess i større byer i Europa, Nord-Amerika og Asia.

Innsamling av informasjon fra trafikklys, analyse av trafikktetthet, trafikkulykker, værdata og andre faktorer som skaper trafikkork – det er dette datamaskinen fungerer. Som et resultat overvåker det intelligente systemet veiene online, forutsier hvilken trafikk som vil være, og bytter trafikklys deretter.

Den overvåker ikke bare trafikken på veien, men hjelper også sjåfører. For eksempel ringer systemet om nødvendig en bergingsbil. Det er klart at denne løsningen ikke vil kunne bli fullstendig kvitt trafikkork, men det er fullt mulig å få fart på bevegelsen til tider.
Det er sannsynlig at fremgangen vil være merkbar dersom ubemannede kjøretøy blir mye brukt – dette er kjøretøy som er i stand til å bevege seg uten menneskelig innblanding. De er utviklet av Google, AKTIV, Tesla Motors og noen andre.

Liv

Selvfølgelig er alle kjent med "" (smarthus), som i fremtiden vil bli et typisk eksempel på AI. De største produsentene er Yamaha, Siemens, Abb, Beckhoff og Legrand.

Slike utviklinger forenkler livet til en person i stor grad. For eksempel vil et slikt system åpne gardinene om morgenen, vekke vertene og lage kaffe. I fremtiden vil funksjonaliteten til "smarthjemmet" utvides til at skapet automatisk vil dampe klær, og kjøleskapet vil bestille mat. Denne løsningen optimerer kostnadene forbundet med energiforsyning, ventilasjon, oppvarming, tilpasning til en praktisk tidsplan.

Også populære er støvsugere som ikke bare kan rengjøre, men også flytte gjenstander og lade seg selv.
Et annet eksempel på daglig bruk av AI er automatiske oversettere. Hvis tidligere "maskinoversettelse" lot mye å være ønsket, har situasjonen i dag endret seg dramatisk. Dette demonstreres av Google Translate: Algoritmen er basert på at datamaskinen ikke oppfatter enkeltord, men hele setningen. Det lar deg få en tekst av høy kvalitet, så i nær fremtid vil denne metoden bli grunnlaget for automatisk oversettelse.

Humanoide androider brukes ikke bare til husarbeid, men også til kommunikasjon. En jern-"venn" lar deg ikke dø av kjedsomhet, og blir noen ganger et fullverdig medlem av familien. Så i Kina klarte en heldig mann å gifte seg med en robot. Det viste seg å være ingeniør Zheng Jiajia, som laget sin egen brud.

Utvilsomt er menneskehetens fremtid sammenvevd med roboter, for hvert år utvikles nye bruksområder for kunstig intelligens. Mest sannsynlig vil det overgå evnene til en person, men samtidig forbedre livskvaliteten betydelig. Hovedsaken her er å finne et fornuftig rammeverk til AI har lært å reprodusere seg selv. Ifølge Elon Musk er det verdt å ta en proaktiv holdning og begrense bruken av AI nå, i hvert fall i militærindustrien.

  • Mustafina Nailya Mugattarovna, bachelor, student
  • Bashkir State Agrarian University
  • Sharafutdinov Aidar Gazizyanovich, vitenskapskandidat, førsteamanuensis, førsteamanuensis
  • Bashkir State Agrarian University
  • DATAMASKINER
  • TEKNIKK
  • VITENSKAPEN
  • KUNSTIG INTELLIGENS

I dag utvikler den vitenskapelige og teknologiske utviklingen seg raskt. En av de raskt voksende næringene er kunstig intelligens.

I dag er den teknologiske utviklingen i rask utvikling. Vitenskapen står ikke stille og hvert år kommer folk opp med mer og mer avansert teknologi. En av de nye retningene i utviklingen av teknologisk fremgang er kunstig intelligens.

Menneskeheten hørte først om kunstig intelligens for mer enn 50 år siden. Det skjedde på en konferanse holdt i 1956 ved Dartmouth University, hvor John McCarthy ga begrepet en klar og presis definisjon. «Kunstig intelligens er vitenskapen om å lage intelligente maskiner og dataprogrammer. For formålene med denne vitenskapen brukes datamaskiner som et middel til å forstå egenskapene til menneskelig intelligens, samtidig bør studiet av AI ikke begrenses til bruken av biologisk plausible metoder.

Den kunstige intelligensen til moderne datamaskiner er på et ganske høyt nivå, men ikke til det nivået at deres atferdsevner ikke er dårligere enn i det minste de mest primitive dyrene.

Resultatet av forskning på "kunstig intelligens" er ønsket om å forstå hjernens arbeid, å avsløre hemmelighetene til menneskelig bevissthet og problemet med å lage maskiner med et visst nivå av menneskelig intelligens. Den grunnleggende muligheten for å modellere intellektuelle prosesser følger at enhver funksjon i hjernen, enhver mental aktivitet, beskrevet av et språk med strengt entydig semantikk ved bruk av et begrenset antall ord, i prinsippet kan overføres til en elektronisk digital datamaskin.

For tiden er det utviklet noen kunstig intelligens-modeller på forskjellige felt, men det er ennå ikke laget en datamaskin som er i stand til å behandle informasjon i noe nytt felt.

Blant de viktigste klassene av oppgaver som har blitt stilt til utviklerne av intelligente systemer siden definisjonen av kunstig intelligens som en vitenskapelig retning, bør følgende utpekes. områder med kunstig intelligens:

  • Bevis for teoremer. Studiet av teorembevisende teknikker har spilt en viktig rolle i utviklingen av kunstig intelligens. Mange uformelle problemer, for eksempel medisinsk diagnostikk, bruker de metodiske tilnærmingene som ble brukt for å automatisere beviset for teoremer ved løsning. Søket etter et bevis på et matematisk teorem krever ikke bare deduksjon fra hypoteser, men også å lage intuisjoner om hvilke mellomutsagn som bør bevises for det generelle beviset for hovedsetningen.
  • Bildegjenkjenning. Bruk av kunstig intelligens for mønstergjenkjenning har gjort det mulig å lage praktisk fungerende systemer for å identifisere grafiske objekter basert på lignende funksjoner. Eventuelle egenskaper ved gjenstander som skal gjenkjennes kan betraktes som funksjoner. Funksjonene må være uforanderlige i forhold til orienteringen, størrelsen og formen til objekter. Alfabetet av tegn er dannet av systemutvikleren. Kvaliteten på gjenkjennelsen avhenger i stor grad av hvor godt det etablerte alfabetet av funksjoner er. Gjenkjenning består i a priori å oppnå en vektor av funksjoner for et separat objekt valgt på bildet, og deretter i å bestemme hvilken av standardene i alfabetet av funksjoner denne vektoren tilsvarer.
  • Maskinoversettelse og forståelse av menneskelig tale. Oppgaven med å analysere menneskelige talesetninger ved hjelp av en ordbok er en typisk oppgave for kunstige intelligenssystemer. For å løse det ble det laget et mellomspråk for å lette sammenligningen av setninger fra forskjellige språk. I fremtiden ble dette mellomspråket til en semantisk modell for å representere betydningen av tekster som skal oversettes. Utviklingen av den semantiske modellen har ført til opprettelsen av et språk for intern representasjon av kunnskap. Som et resultat analyserer moderne systemer tekster og fraser i fire hovedtrinn: morfologisk analyse, syntaktisk, semantisk og pragmatisk analyse.
  • Spillprogrammer. De fleste spillprogrammer er basert på noen få grunnleggende ideer om kunstig intelligens, for eksempel oppregning av alternativer og selvlæring. En av de mest interessante oppgavene innen spillprogrammer som bruker kunstig intelligens-metoder, er å lære en datamaskin å spille sjakk. Det ble grunnlagt i de tidlige dagene av databehandling, på slutten av 1950-tallet. I sjakk er det visse ferdighetsnivåer, grader av kvalitet i spillet, som kan gi klare kriterier for å vurdere den intellektuelle veksten av systemet. Derfor var forskere fra hele verden aktivt involvert i datasjakk, og resultatene av deres prestasjoner brukes i andre intellektuelle utviklinger av reell praktisk betydning.
  • Maskinkreativitet. Et av bruksområdene for kunstig intelligens inkluderer programvaresystemer som uavhengig kan lage musikk, poesi, historier, artikler, diplomer og til og med avhandlinger. I dag er det en hel klasse med musikalske programmeringsspråk (for eksempel C-Sound-språket). For ulike musikalske oppgaver ble det laget spesiell programvare: lydbehandlingssystemer, lydsyntese, interaktive komposisjonssystemer, algoritmiske komposisjonsprogrammer.
  • Ekspertsystemer. Kunstig intelligens-metoder har funnet anvendelse i etableringen av automatiserte konsulentsystemer eller ekspertsystemer. De første ekspertsystemene ble utviklet som forskningsverktøy på 1960-tallet. De var kunstig intelligens-systemer spesielt utviklet for å løse komplekse problemer i et snevert fagområde, for eksempel medisinsk diagnose av sykdommer. Det klassiske målet med denne retningen var i utgangspunktet å lage et generell kunstig intelligenssystem som ville være i stand til å løse ethvert problem uten spesifikk kunnskap på fagområdet. På grunn av den begrensede kapasiteten til dataressurser, viste dette problemet seg å være for vanskelig å løse med et akseptabelt resultat.

Vi kan si at hovedmålet med å utvikle kunstig intelligens er optimalisering, bare forestill deg hvordan en person, uten å være i fare, kunne studere andre planeter, utvinne edle metaller.

Dermed kan vi konkludere med at studiet og utviklingen av kunstig intelligens er viktig for hele samfunnet. Tross alt, med bruk av dette systemet er det mulig å sikre og lette menneskeliv.

Bibliografi

  1. Yasnitsky L.N. Om mulighetene for å bruke kunstig intelligens [Elektronisk ressurs]: vitenskapelig elektronisk bibliotek. URL: http://cyberleninka.ru/ (åpnet 06/01/2016)
  2. Yastreb N.A. Kunstig intelligens [Elektronisk ressurs]: vitenskapelig elektronisk bibliotek. URL: http://cyberleninka.ru/ (åpnet 06/01/2016)
  3. Abdulatipova M.A. Kunstig intelligens [Elektronisk ressurs]: vitenskapelig elektronisk bibliotek. URL: http://cyberleninka.ru/ (åpnet 06/01/2016)