biografieën Kenmerken Analyse

Kunstmatige intelligentie. Het gebruik van AI in het openbaar bestuur

Kunstmatige intelligentie (AI, eng. Kunstmatige intelligentie, AI) - de wetenschap en technologie van het maken van intelligente machines, met name intelligente computerprogramma's. AI is gerelateerd aan de vergelijkbare taak om computers te gebruiken om menselijke intelligentie te begrijpen, maar is niet noodzakelijk beperkt tot biologisch plausibele methoden.

Wat is kunstmatige intelligentie?

Intelligentie(van het Latijnse intellectus - sensatie, perceptie, begrip, begrip, concept, reden), of geest - de kwaliteit van de psyche, bestaande uit het vermogen om zich aan te passen aan nieuwe situaties, het vermogen om te leren en te onthouden op basis van ervaring, te begrijpen en toe te passen abstracte concepten en eigen kennis gebruiken voor milieubeheer. Intelligentie is een algemeen vermogen tot cognitie en het oplossen van problemen, dat alle cognitieve vermogens van een persoon combineert: sensatie, perceptie, geheugen, representatie, denken, verbeeldingskracht.

In de vroege jaren 1980 Computerwetenschappers Barr en Feigenbaum stelden de volgende definitie van kunstmatige intelligentie (AI) voor:


Later werden een aantal algoritmen en softwaresystemen AI genoemd, waarvan het onderscheidende kenmerk is dat ze sommige problemen op dezelfde manier kunnen oplossen als iemand die over hun oplossing nadenkt.

De belangrijkste eigenschappen van AI zijn taalbegrip, leren en het vermogen om te denken en, belangrijker nog, te handelen.

AI is een complex van verwante technologieën en processen die zich kwalitatief en snel ontwikkelen, bijvoorbeeld:

  • natuurlijke taal tekstverwerking
  • expertsystemen
  • virtuele agenten (chatbots en virtuele assistenten)
  • aanbevelingssystemen.

Technologische richtingen van AI. Deloitte-gegevens

AI-onderzoek

  • Hoofd artikel: Onderzoek op het gebied van kunstmatige intelligentie

AI-standaardisatie

2018: Ontwikkeling van standaarden op het gebied van kwantumcommunicatie, AI en de slimme stad

Op 6 december 2018 is de Technische Commissie "Cyber-Physical Systems" op basis van RVC samen met het Regional Engineering Center "SafeNet" begonnen met het ontwikkelen van een reeks normen voor de markten van het National Technology Initiative (NTI) en de digitale economie . Tegen maart 2019 is het de bedoeling om technische standaardisatiedocumenten te ontwikkelen op het gebied van kwantumcommunicatie, en , meldde RVC. Lees verder.

De impact van kunstmatige intelligentie

Risico voor de ontwikkeling van de menselijke beschaving

Impact op de economie en het bedrijfsleven

  • De impact van kunstmatige-intelligentietechnologieën op de economie en het bedrijfsleven

Impact op de arbeidsmarkt

Vooroordeel over kunstmatige intelligentie

De kern van dat alles is de praktijk van AI ( Machinevertaling, spraakherkenning, natuurlijke taalverwerking, computervisie, automatisering van autorijden en meer) ligt diep leren. Dit is een subset van machine learning, gekenmerkt door het gebruik van neurale netwerkmodellen, waarvan kan worden gezegd dat ze de manier waarop de hersenen werken nabootsen, zodat ze nauwelijks als AI kunnen worden geclassificeerd. Elk neuraal netwerkmodel wordt getraind op grote datasets, dus het verwerft enkele "vaardigheden", maar hoe het deze gebruikt is niet duidelijk voor de makers, wat uiteindelijk een van de belangrijkste problemen wordt voor veel deep learning-toepassingen. De reden is dat zo'n model formeel met afbeeldingen werkt, zonder enig begrip van wat het doet. Is zo'n AI-systeem en zijn systemen die gebouwd zijn op basis van machine learning te vertrouwen? De betekenis van het antwoord op de laatste vraag gaat verder dan wetenschappelijke laboratoria. Daarom is de aandacht van de media voor het fenomeen AI-bias merkbaar toegenomen. Het kan worden vertaald als "AI-bias" of "AI-bias". Lees verder.

Markt voor kunstmatige intelligentietechnologie

AI-markt in Rusland

De wereldwijde AI-markt

Toepassingen van AI

De toepassingsgebieden van AI zijn vrij breed en omvatten zowel technologieën die bekend zijn bij het gehoor, als opkomende nieuwe gebieden die verre van massale toepassing zijn, met andere woorden, dit is het hele scala aan oplossingen, van stofzuigers tot ruimtestations. Het is mogelijk om al hun diversiteit te verdelen volgens het criterium van de belangrijkste ontwikkelingspunten.

AI is geen monolithisch vakgebied. Bovendien verschijnen sommige AI-technologieën als nieuwe subsectoren van de economie en afzonderlijke entiteiten, terwijl ze tegelijkertijd de meeste gebieden van de economie bedienen.

Belangrijkste commerciële toepassingen van kunstmatige-intelligentietechnologieën

De ontwikkeling van het gebruik van AI leidt tot de aanpassing van technologieën in klassieke sectoren van de economie langs de hele waardeketen en transformeert ze, wat leidt tot de algoritmisering van bijna alle functionaliteit, van logistiek tot bedrijfsbeheer.

Het gebruik van AI voor defensie en militaire doeleinden

Gebruik in het onderwijs

Gebruik van AI in het bedrijfsleven

AI in de energiesector

  • Op ontwerpniveau: verbeterde voorspelling van opwekking en vraag naar energiebronnen, beoordeling van de betrouwbaarheid van stroomopwekkingsapparatuur, automatisering van opwekkingsverhoging bij een sterke vraag.
  • Op productieniveau: preventief onderhoud van apparatuur optimaliseren, opwekkingsefficiëntie verhogen, verliezen verminderen, diefstal van energiebronnen voorkomen.
  • Op promotieniveau: optimalisatie van de prijsstelling afhankelijk van het tijdstip van de dag en dynamische facturering.
  • Op het vlak van dienstverlening: automatische selectie van de meest winstgevende leverancier, gedetailleerde verbruiksstatistieken, geautomatiseerde klantenservice, energieoptimalisatie op basis van gewoonten en gedrag van de klant.

AI in productie

  • Op ontwerpniveau: verbetering van de efficiëntie van de ontwikkeling van nieuwe producten, geautomatiseerde evaluatie van leveranciers en analyse van vereisten voor reserveonderdelen en onderdelen.
  • Op productieniveau: het proces van het uitvoeren van taken verbeteren, assemblagelijnen automatiseren, het aantal fouten verminderen, de levertijd van grondstoffen verkorten.
  • Op promotieniveau: prognose van het volume van ondersteunings- en onderhoudsdiensten, prijsbeheer.
  • Op het niveau van de dienstverlening: verbetering van de routeplanning van de vloot Voertuig, vraag naar vlootmiddelen, verbetering van de kwaliteit van de opleiding van onderhoudsmonteurs.

AI in banken

  • Patroonherkenning - gebruikt incl. om klanten in filialen te herkennen en hen gespecialiseerde aanbiedingen te sturen.

De belangrijkste commerciële toepassingsgebieden van kunstmatige-intelligentietechnologieën in banken

AI in transport

  • De auto-industrie staat aan de vooravond van een revolutie: 5 uitdagingen van het tijdperk van zelfrijdend rijden

AI in logistiek

AI bij het brouwen

Het gebruik van AI in het openbaar bestuur

AI in forensisch onderzoek

  • Patroonherkenning - gebruikt incl. criminelen op te sporen in de openbare ruimte.
  • In mei 2018 werd bekend over het gebruik van kunstmatige intelligentie door de Nederlandse politie om complexe misdrijven te onderzoeken.

Volgens The NextWeb, politie begon met het digitaliseren van meer dan 1.500 rapporten en 30 miljoen pagina's met betrekking tot cold cases. Materialen worden vanaf 1988 overgebracht naar een computerformaat, waarin het misdrijf gedurende ten minste drie jaar niet is opgelost en de dader is veroordeeld tot meer dan 12 jaar gevangenisstraf.

Los een complexe misdaad in een dag op. Politie neemt het op tegen AI

Zodra alle inhoud is gedigitaliseerd, wordt deze verbonden met een machine learning-systeem dat de records analyseert en beslist in welke gevallen het sterkste bewijs wordt gebruikt. Dit zou de tijd die nodig is om zaken te verwerken en misdaden uit het verleden en in de toekomst op te lossen, van weken tot dagen moeten verminderen.

Kunstmatige intelligentie zal zaken verdelen op basis van hun "oplosbaarheid" en de mogelijke resultaten van het DNA-onderzoek aangeven. Vervolgens is het de bedoeling om de analyse op andere gebieden van de forensische wetenschap te automatiseren en misschien zelfs gegevens op gebieden zoals sociale wetenschappen en getuigenissen te dekken.

Bovendien, volgens een van de ontwikkelaars van het systeem Jeroen Hammer (Jeroen Hammer), kunnen er in de toekomst API-functies voor partners worden vrijgegeven.


De Nederlandse politie heeft een speciale eenheid die gespecialiseerd is in de ontwikkeling van nieuwe technologieën voor het oplossen van misdrijven. Hij was het die het AI-systeem heeft gemaakt voor Snelzoeken criminelen op het bewijs.

AI in de rechterlijke macht

Ontwikkelingen op het gebied van kunstmatige intelligentie zullen helpen om het gerechtelijk apparaat radicaal te veranderen, eerlijker en vrijer te maken van corruptieregelingen. Deze mening werd in de zomer van 2017 uitgedrukt door Vladimir Krylov, doctor in de technische wetenschappen, technisch adviseur van Artezio.

De wetenschapper is van mening dat de AI-oplossingen die al bestaan, succesvol kunnen worden toegepast op verschillende terreinen van de economie en het openbare leven. De expert wijst erop dat AI met succes wordt toegepast in de geneeskunde, maar in de toekomst het rechtsstelsel volledig kan veranderen.

“Als je dagelijks nieuwsberichten bekijkt over ontwikkelingen op het gebied van AI, verbaas je je alleen maar over de onuitputtelijkheid van de verbeelding en de vruchtbaarheid van onderzoekers en ontwikkelaars op dit gebied. Berichten over wetenschappelijk onderzoek voortdurend afgewisseld met publicaties over nieuwe producten die op de markt komen en rapporten van verbluffende resultaten die zijn verkregen met AI op verschillende gebieden. Als we het hebben over de verwachte gebeurtenissen, vergezeld van een merkbare hype in de media, waarin AI weer de held van het nieuws wordt, dan zal ik waarschijnlijk niet het risico lopen om technologische voorspellingen te doen. Ik kan aannemen dat de volgende gebeurtenis de verschijning zal zijn van een uiterst competente rechtbank in de vorm van kunstmatige intelligentie, eerlijk en onvergankelijk. Dit zal waarschijnlijk in 2020-2025 gebeuren. En de processen die in deze rechtbank zullen plaatsvinden, zullen leiden tot onverwachte reflecties en de wens van veel mensen om de meeste processen van het besturen van de menselijke samenleving over te dragen aan AI.

De wetenschapper erkent het gebruik van kunstmatige intelligentie in het gerechtelijk apparaat als een "logische stap" in de ontwikkeling van wetgevende gelijkheid en rechtvaardigheid. De machinegeest is niet onderhevig aan corruptie en emoties, kan zich duidelijk houden aan het wettelijke kader en beslissingen nemen rekening houdend met vele factoren, waaronder gegevens die kenmerkend zijn voor de deelnemers aan het geschil. Naar analogie met de medische wereld kunnen robotrechters werken met big data uit openbare depots. Aangenomen mag worden dat machine-intelligentie in staat zal zijn om gegevens snel te verwerken en rekening te houden met veel meer factoren dan een menselijke rechter.

Psychologische experts zijn echter van mening dat het ontbreken van een emotionele component bij de behandeling van rechtszaken de kwaliteit van de beslissing negatief zal beïnvloeden. Het oordeel van de machinerechtbank kan te eenvoudig blijken te zijn, zonder rekening te houden met het belang van de gevoelens en stemmingen van mensen.

Schilderen

In 2015 testte het Google-team neurale netwerken voor de mogelijkheid om zelf afbeeldingen te maken. Vervolgens werd kunstmatige intelligentie getraind op het voorbeeld van een groot aantal verschillende afbeeldingen. Toen de machine echter werd "gevraagd" om iets op zichzelf af te beelden, bleek hij de wereld om ons heen op een wat vreemde manier te interpreteren. Voor de taak om halters te tekenen, ontvingen de ontwikkelaars bijvoorbeeld een afbeelding waarin het metaal door mensenhanden was verbonden. Dit gebeurde waarschijnlijk omdat in de trainingsfase de geanalyseerde foto's met halters handen bevatten en het neurale netwerk dit verkeerd interpreteerde.

Op 26 februari 2016 hebben Google-vertegenwoordigers op een speciale veiling in San Francisco ongeveer $ 98.000 opgehaald uit psychedelische schilderijen die door kunstmatige intelligentie zijn geschilderd. Dit geld werd gedoneerd aan liefdadigheidsinstellingen. Een van de meest succesvolle foto's van de auto wordt hieronder weergegeven.

Een foto geschilderd door Google kunstmatige intelligentie.

Kunstmatige intelligentie is de laatste tijd een van de meest populaire onderwerpen in de technologiewereld. Geesten als Elon Musk, Stephen Hawking en Steve Wozniak maken zich ernstige zorgen over AI-onderzoek en beweren dat de creatie ervan ons met levensgevaar bedreigt. Tegelijkertijd hebben sciencefiction en Hollywood-films veel misvattingen over AI gecreëerd. Zijn we echt in gevaar en welke onnauwkeurigheden maken we als we ons de vernietiging van de Skynet Earth, algemene werkloosheid, of vice versa, welvaart en onvoorzichtigheid voorstellen? De menselijke mythen over kunstmatige intelligentie zijn ontkracht door Gizmodo. Hier is een volledige vertaling van zijn artikel.

Het wordt de belangrijkste test van machine-intelligentie genoemd sinds Deep Blue twintig jaar geleden Garry Kasparov versloeg in een schaakwedstrijd. Google AlphaGo versloeg grootmeester Li Sedol in een Go-toernooi met een verpletterende score van 4:1, wat aantoont hoe serieus kunstmatige intelligentie (AI) is gevorderd. De noodlottige dag waarop machines eindelijk de geest van de mens overtreffen, leek nog nooit zo dichtbij. Maar het lijkt erop dat we de gevolgen van deze baanbrekende gebeurtenis nog niet hebben begrepen.

In feite klampen we ons vast aan ernstige en zelfs gevaarlijke misvattingen over kunstmatige intelligentie. Vorig jaar waarschuwde SpaceX-oprichter Elon Musk dat AI de wereld zou kunnen overnemen. Zijn woorden veroorzaakten een storm van commentaren, zowel voor- als tegenstanders van deze mening. Wat betreft zo'n toekomstige monumentale gebeurtenis, is er een verbazingwekkende hoeveelheid controverse over de vraag of het zal plaatsvinden, en zo ja, in welke vorm. Dit is vooral zorgwekkend als je kijkt naar de ongelooflijke voordelen die de mensheid kan hebben van AI en de mogelijke risico's. In tegenstelling tot andere menselijke uitvindingen heeft AI het potentieel om de mensheid te veranderen of ons te vernietigen.

Het is moeilijk om te weten wat je moet geloven. Maar dankzij het vroege werk van computationele wetenschappers, neurowetenschappers, AI-theoretici begint er een duidelijker beeld te ontstaan. Hier zijn enkele veelvoorkomende misvattingen en mythen over kunstmatige intelligentie.

Mythe #1: "We zullen nooit een AI maken met menselijke intelligentie"

Realiteit: We hebben al computers die de menselijke capaciteiten op het gebied van schaken, Go, aandelenhandel en conversatie hebben geëvenaard of overtroffen. Computers en de algoritmen die ze uitvoeren, kunnen alleen maar beter worden. Het is slechts een kwestie van tijd voordat ze de mens bij elke taak overtreffen.

NYU-onderzoekspsycholoog Gary Marcus zei dat "letterlijk iedereen" die in AI werkt, gelooft dat machines ons uiteindelijk zullen verslaan: "Het enige echte verschil tussen enthousiastelingen en sceptici zijn schattingen van timing." Futuristen zoals Ray Kurzweil denken dat het binnen een paar decennia kan gebeuren, anderen zeggen dat het eeuwen kan duren.

AI-sceptici zijn niet overtuigend als ze zeggen dat dit een onoplosbaar technologisch probleem is, en dat er iets unieks is in de aard van het biologische brein. Onze hersenen zijn biologische machines - ze bestaan ​​in echte wereld en zich houden aan de basiswetten van de fysica. Er is niets onwetends aan hen.

Mythe #2: "Kunstmatige intelligentie zal bewustzijn hebben"

Realiteit: De meesten stellen zich voor dat de machinegeest bewust zal zijn en zal denken zoals mensen denken. Bovendien geloven critici zoals Microsoft-oprichter Paul Allen dat we nog geen kunstmatige algemene intelligentie kunnen bereiken (in staat om elk mentaal probleem op te lossen dat een mens kan oplossen), omdat we een wetenschappelijke theorie van bewustzijn missen. Maar zoals Murray Shanahan, een expert in cognitieve robotica aan het Imperial College London, zegt, moeten we de twee concepten niet gelijkstellen.

“Bewustzijn is zeker geweldig en belangrijk ding, maar ik geloof niet dat het nodig is voor kunstmatige intelligentie op menselijk niveau. Om precies te zijn, gebruiken we het woord 'bewustzijn' om te verwijzen naar verschillende psychologische en cognitieve eigenschappen die een persoon 'in een pakket krijgt', legt de wetenschapper uit.

Een intelligente machine die een of meer van deze eigenschappen mist, is denkbaar. Uiteindelijk kunnen we een ongelooflijk slimme AI creëren die niet in staat zal zijn om de wereld subjectief en bewust waar te nemen. Shanahan stelt dat geest en bewustzijn gecombineerd kunnen worden in een machine, maar we mogen niet vergeten dat dit twee verschillende concepten zijn.

Dat een machine de Turing-test doorstaat, waarin hij niet van een mens te onderscheiden is, betekent niet dat hij bewustzijn heeft. Voor ons lijkt een geavanceerde AI misschien bewust, maar zijn zelfbewustzijn zal niet meer zijn dan dat van een steen of een rekenmachine.

Mythe #3: "We moeten niet bang zijn voor AI"

Realiteit: In januari zei Facebook-oprichter Mark Zuckerberg dat we niet bang moeten zijn voor AI, omdat het ongelooflijk veel goede dingen voor de wereld zal doen. Hij heeft half gelijk. We zullen enorm profiteren van AI, van zelfrijdende auto's tot nieuwe medicijnen, maar er is geen garantie dat elke AI-implementatie goedaardig zal zijn.

Een zeer intelligent systeem kan alles weten over een bepaalde taak, zoals het oplossen van een vervelend financieel probleem of het hacken van een systeem. vijandelijke verdediging. Maar buiten de grenzen van deze specialisaties zal ze diep onwetend en onbewust zijn. Het DeepMind-systeem van Google is een expert in Go, maar heeft niet de mogelijkheid of reden om gebieden buiten zijn specialiteit te verkennen.

Veel van deze systemen zijn mogelijk niet onderworpen aan beveiligingsoverwegingen. Een goed voorbeeld is het geavanceerde en krachtige Stuxnet-virus, een paramilitaire worm die is ontwikkeld door het Israëlische en Amerikaanse leger om Iraanse kerncentrales te infiltreren en te saboteren. Dit virus heeft op de een of andere manier (met opzet of per ongeluk) de Russische kerncentrale besmet.

Een ander voorbeeld is het programma Flame dat wordt gebruikt voor cyberspionage in het Midden-Oosten. Het is gemakkelijk om toekomstige versies van Stuxnet of Flame voor te stellen die hun doelen overschrijden en enorme schade aanrichten aan gevoelige infrastructuur. (Voor het begrip, deze virussen zijn geen AI, maar in de toekomst kunnen ze het hebben, vandaar de zorg).

Het Flame-virus is gebruikt voor cyberspionage in het Midden-Oosten. Foto: Bedraad

Mythe #4: "Kunstmatige superintelligentie zal te slim zijn om fouten te maken"

Realiteit: AI-onderzoeker en oprichter van Surfing Samurai Robots Richard Lucimore gelooft dat de meeste scenario's dag des oordeels geassocieerd met AI zijn inconsistent. Ze zijn altijd gebouwd op de veronderstelling dat de AI zegt: "Ik weet dat de vernietiging van de mensheid wordt veroorzaakt door een ontwerpfout, maar ik moet het nog steeds doen." Lucimore zegt dat als de AI zich op deze manier gedraagt, pratend over onze vernietiging, dergelijke logische tegenstrijdigheden hem voor het leven zullen achtervolgen. Dit verslechtert op zijn beurt zijn kennisbasis en maakt hem te dom om te creëren. gevaarlijke situatie. De wetenschapper stelt ook dat mensen die zeggen: "AI kan alleen doen waarvoor het is geprogrammeerd" zich net zo vergissen als hun collega's aan het begin van het computertijdperk. Destijds gebruikten mensen deze uitdrukking om te beweren dat computers niet in staat zijn om ook maar het minste beetje flexibiliteit te tonen.

Peter McIntyre en Stuart Armstrong, die werken aan het Future of Humanity Institute aan de Universiteit van Oxford, zijn het niet eens met Lucimore. Ze stellen dat AI grotendeels gebonden is aan de manier waarop het is geprogrammeerd. McIntyre en Armstrong geloven dat AI geen fouten kan maken of te dom zijn om niet te weten wat we ervan verwachten.

“Per definitie is een kunstmatige superintelligentie (AI) een entiteit met een intelligentie die veel groter is dan het beste menselijke brein op elk kennisgebied. Hij zal precies weten wat we wilden dat hij deed", zegt McIntyre. Beide wetenschappers zijn van mening dat AI alleen zal doen waarvoor het is geprogrammeerd. Maar als hij slim genoeg wordt, zal hij begrijpen hoe anders het is van de geest van de wet of de bedoelingen van het volk.

McIntyre vergeleek de toekomstige situatie van mens en AI met de huidige interactie tussen mens en muis. Het doel van de muis is om voedsel en onderdak te zoeken. Maar het is vaak in strijd met de wens van een persoon die wil dat zijn dier vrij om hem heen kan rennen. “We zijn slim genoeg om sommige doelen van muizen te begrijpen. Dus de ASI zal ook onze verlangens begrijpen, maar er onverschillig tegenover staan', zegt de wetenschapper.

Zoals de plot van de film Ex Machina laat zien, zal het voor een persoon buitengewoon moeilijk zijn om een ​​slimmere AI te behouden

Mythe #5: “Een simpele patch lost het AI-controleprobleem op”

Realiteit: Door kunstmatige intelligentie slimmer te maken dan mensen, zullen we worden geconfronteerd met een probleem dat bekend staat als het "controleprobleem". Futuristen en AI-theoretici raken in een staat van volledige verwarring wanneer hen wordt gevraagd hoe we ASI zullen inperken en beperken als er zich een probleem voordoet. Of hoe je ervoor kunt zorgen dat hij vriendelijk is tegen mensen. Onlangs suggereerden onderzoekers van het Georgia Institute of Technology naïef dat AI menselijke waarden en sociale regels zou kunnen overnemen door te lezen eenvoudige verhalen. In werkelijkheid zal het veel moeilijker zijn.

"Er zijn veel eenvoudige trucs gesuggereerd die het hele AI-controleprobleem zouden kunnen 'oplossen'", zegt Armstrong. Voorbeelden hiervan zijn het programmeren van de ASI zodat het bedoeld is om mensen te plezieren, of zodat het gewoon functioneert als een hulpmiddel in de handen van een persoon. Een andere optie is om de concepten liefde of respect te integreren in de broncode. Om te voorkomen dat AI een simplistische, eenzijdige kijk op de wereld aanneemt, werd voorgesteld om het te programmeren om intellectuele, culturele en sociale diversiteit te waarderen.

Maar deze oplossingen zijn te simpel, zoals proberen de complexiteit van menselijke voorkeuren en antipathieën in één te persen oppervlakkige definitie. Probeer bijvoorbeeld een duidelijke, logische en haalbare definitie van 'respect' te bedenken. Dit is buitengewoon moeilijk.

De machines in The Matrix kunnen de mensheid gemakkelijk vernietigen

Mythe #6: "Kunstmatige intelligentie zal ons vernietigen"

Realiteit: Er is geen garantie dat de AI ons zal vernietigen, of dat we geen manier zullen vinden om het te controleren. Zoals AI-theoreticus Eliezer Yudkowsky zei: "AI houdt niet van je en haat je niet, maar je bent gemaakt van atomen die het voor andere doeleinden kan gebruiken."

In zijn boek Kunstmatige Intelligentie. Stadia. Gevaren. Strategieën', schreef de Oxford-filosoof Nick Bostrom dat een echte kunstmatige superintelligentie, als die eenmaal verschijnt, meer risico zal opleveren dan enige andere menselijke uitvinding. Eminente geesten zoals Elon Musk, Bill Gates en Stephen Hawking (de laatste waarschuwde dat AI onze "ergste fout ooit" zou kunnen zijn) hebben ook hun bezorgdheid geuit.

McIntyre zei dat de meeste doelen die door de ISI kunnen worden geleid, zijn: goede redenen mensen kwijtraken.

“AI kan heel correct voorspellen dat we niet willen dat het de winst van een bepaald bedrijf maximaliseert, ongeacht de kosten voor klanten, omgeving en dieren. Dus hij heeft een sterke prikkel om ervoor te zorgen dat hij niet wordt onderbroken, gestoord, uitgeschakeld of veranderd in zijn doelen, omdat dat zijn oorspronkelijke doelen niet zou bereiken”, zegt McIntyre.

Tenzij de doelen van de ASI die van ons nauwkeurig weerspiegelen, heeft ze een goede reden om ons niet de kans te geven om het te stoppen. Gezien het feit dat zijn niveau van intelligentie veel superieur is aan het onze, kunnen we er niets aan doen.

Niemand weet welke vorm AI zal aannemen en hoe het de mensheid kan bedreigen. Zoals Musk opmerkte, kan kunstmatige intelligentie worden gebruikt om andere AI te controleren, reguleren en monitoren. Of het kan doordrenkt zijn van menselijke waarden of een allesoverheersende wens om vriendelijk te zijn tegen mensen.

Mythe #7: "Kunstmatige superintelligentie zal vriendelijk zijn"

Realiteit: De filosoof Immanuel Kant geloofde dat de rede sterk gecorreleerd is met moraliteit. Neurowetenschapper David Chalmers in zijn studie "The Singularity: Filosofische analyse nam Kants beroemde idee en paste het toe op de opkomende kunstmatige superintelligentie.

Als dit waar is... kunnen we verwachten dat een intellectuele explosie zal leiden tot een explosie van moraliteit. We kunnen dan verwachten dat de opkomende ASI-systemen zowel supermoreel als superintelligent zijn, waardoor we goedheid van hen kunnen verwachten.

Maar het idee dat geavanceerde AI verlicht en vriendelijk zal zijn, is inherent niet erg aannemelijk. Zoals Armstrong opmerkte, zijn er veel slimme oorlogsmisdadigers. Het lijkt erop dat het verband tussen rede en moraliteit niet bestaat bij mensen, dus hij twijfelt aan de werking van dit principe bij andere intelligente vormen.

“Slimme mensen die zich immoreel gedragen, kunnen op veel grotere schaal pijn veroorzaken dan hun dommere tegenhangers. Intelligentie stelt hen gewoon in staat slecht te zijn met grote intelligentie, het maakt ze niet tot goede mensen", zegt Armstrong.

Zoals McIntyre uitlegde, is het vermogen van een proefpersoon om een ​​doel te bereiken niet gerelateerd aan de vraag of dat doel in het begin redelijk zou zijn. "We zullen veel geluk hebben als onze AI's uniek begaafd zijn en hun niveau van moraliteit meegroeit met de geest. Hopen op geluk is niet de beste benadering voor wat onze toekomst zou kunnen bepalen”, zegt hij.

Mythe #8: "De risico's van AI en robotica zijn gelijk"

Realiteit: Dit is een bijzonder veel voorkomende fout die wordt gepropageerd door onkritische media en Hollywood-films zoals The Terminator.

Als een kunstmatige superintelligentie als Skynet de mensheid echt wilde vernietigen, had ze geen androïden met zesloops machinegeweren gebruikt. Veel effectiever zou zijn om een ​​biologische plaag of nanotech grijs slijm te sturen. Of gewoon de atmosfeer vernietigen.

Kunstmatige intelligentie is potentieel gevaarlijk, niet omdat het de ontwikkeling van robotica kan beïnvloeden, maar vanwege de manier waarop het uiterlijk de wereld in het algemeen zal beïnvloeden.

Mythe #9: "De weergave van AI in sciencefiction is een nauwkeurige weergave van de toekomst"

Vele soorten geesten. Afbeelding: Eliezer Yudkowsky

Natuurlijk hebben auteurs en futuristen sciencefiction gebruikt om fantastische voorspellingen te doen, maar de gebeurtenishorizon die is vastgesteld door de ASI is een heel ander verhaal. Bovendien maakt de onmenselijke aard van AI het ons onmogelijk om de aard en vorm ervan te kennen en dus te voorspellen.

Om ons domme mensen te vermaken, worden de meeste AI's in sciencefiction afgebeeld alsof ze op ons lijken. “Er is een spectrum van alle mogelijke geesten. Zelfs onder mensen ben je heel anders dan je buurman, maar deze variatie is niets vergeleken met alle intelligenties die kunnen bestaan”, zegt McIntyre.

De meeste sciencefiction hoeft niet wetenschappelijk accuraat te zijn om een ​​meeslepend verhaal te vertellen. Het conflict ontvouwt zich meestal tussen helden die qua kracht dicht bij elkaar staan. "Stel je voor hoe saai een verhaal zou zijn, waar een AI zonder bewustzijn, vreugde of haat de mensheid zou beëindigen zonder enige weerstand om een ​​oninteressant doel te bereiken", geeuwt Armstrong.

Honderden robots werken in Tesla-fabriek

Mythe #10: "Het is verschrikkelijk dat AI al ons werk overneemt"

Realiteit: Het vermogen van AI om veel van wat we doen te automatiseren en het potentieel om de mensheid te vernietigen, zijn twee heel verschillende dingen. Maar volgens Martin Ford, auteur van In the Dawn of Robots: Technology and the Threat of a Jobless Future, worden ze vaak als één geheel gezien. Het is goed om na te denken over de verre toekomst van AI-toepassingen, maar alleen als het ons niet afleidt van de problemen waar we de komende decennia mee te maken krijgen. De belangrijkste daarvan is massaautomatisering.

Niemand twijfelt eraan dat kunstmatige intelligentie veel bestaande banen zal vervangen, van fabrieksarbeider tot hogere echelons van het witteboordenwerk. Sommige experts voorspellen dat de helft van alle banen in de VS in de nabije toekomst wordt bedreigd door automatisering.

Maar dat betekent niet dat we de schok niet aankunnen. Over het algemeen is het wegwerken van het grootste deel van ons werk, zowel fysiek als mentaal, een quasi-utopisch doel van onze soort.

"Binnen een paar decennia zal AI veel banen wegvagen, maar dat is niet erg", zegt Miller. Zelfrijdende auto's zullen vrachtwagenchauffeurs vervangen, de verzendkosten verlagen en als gevolg daarvan veel producten goedkoper maken. “Als je vrachtwagenchauffeur bent en er je brood mee verdient, verlies je, maar integendeel, iedereen kan meer goederen kopen voor hetzelfde salaris. En het geld dat ze besparen, wordt besteed aan andere goederen en diensten die nieuwe banen voor mensen zullen creëren”, zegt Miller.

Naar alle waarschijnlijkheid zal kunstmatige intelligentie nieuwe kansen creëren voor de productie van goed, waardoor mensen de vrijheid krijgen om andere dingen te doen. Vooruitgang in de ontwikkeling van AI zal gepaard gaan met vooruitgang op andere gebieden, met name in de productie. In de toekomst zal het voor ons gemakkelijker worden, niet moeilijker, om in onze basisbehoeften te voorzien.

Kunstmatige intelligentie

Kunstmatige intelligentie is een tak van de informatica die de mogelijkheid bestudeert om redelijk te redeneren en te handelen met behulp van computersystemen en andere kunstmatige apparaten. In de meeste gevallen is het algoritme voor het oplossen van het probleem niet van tevoren bekend.

De exacte definitie van deze wetenschap bestaat niet, aangezien de kwestie van de aard en status van het menselijk intellect niet in de filosofie is opgelost. Er is geen exact criterium voor het bereiken van 'intelligentie' door computers, hoewel aan het begin van kunstmatige intelligentie een aantal hypothesen werden voorgesteld, bijvoorbeeld de Turing-test of de Newell-Simon-hypothese. Op de dit moment Er zijn veel benaderingen om zowel de taak van AI te begrijpen als om intelligente systemen te creëren.

Een van de classificaties onderscheidt dus twee benaderingen voor de ontwikkeling van AI:

top-down, semiotisch - het creëren van symbolische systemen die op hoog niveau modelleren mentale processen: denken, redeneren, spreken, emoties, creativiteit, etc.;

bottom-up, biologisch - de studie van neurale netwerken en evolutionaire berekeningen die intelligent gedrag modelleren op basis van kleinere "niet-intelligente" elementen.

Deze wetenschap is verbonden met psychologie, neurofysiologie, transhumanisme en andere. Zoals alle computerwetenschappen gebruikt het een wiskundig apparaat. Filosofie en robotica zijn voor haar van bijzonder belang.

Kunstmatige intelligentie is een zeer jong onderzoeksgebied dat in 1956 werd gelanceerd. Zijn historische pad lijkt op een sinusoïde, waarvan elke "stijging" werd geïnitieerd door een nieuw idee. BIJ dit moment de ontwikkeling ervan neemt af en maakt plaats voor de toepassing van reeds behaalde resultaten op andere gebieden van de wetenschap, de industrie, het bedrijfsleven en zelfs het dagelijks leven.

Studiebenaderingen

Er zijn verschillende benaderingen voor het bouwen van AI-systemen. Op dit moment zijn er 4 heel verschillende benaderingen:

1. Logische aanpak. De basis voor de logische benadering is Booleaanse algebra. Elke programmeur is ermee bekend en met logische operatoren sinds hij het IF-statement onder de knie heeft. Booleaanse algebra kreeg zijn verdere ontwikkeling in de vorm van predikaatrekening - waarin het wordt uitgebreid door onderwerpsymbolen, relaties daartussen, kwantoren van bestaan ​​en universaliteit te introduceren. Vrijwel elk AI-systeem dat op een logisch principe is gebouwd, is een machine voor het bewijzen van stellingen. In dit geval worden de initiële gegevens in de database opgeslagen in de vorm van axioma's, de afleidingsregels als de relatie daartussen. Bovendien heeft elke dergelijke machine een blok voor het genereren van doelen, en het gevolgtrekkingssysteem probeert te bewijzen: het doel als een stelling. Als het doel is bewezen, stelt het traceren van de toegepaste regels u in staat om een ​​reeks acties te krijgen die nodig zijn om het doel te bereiken (een dergelijk systeem staat bekend als expertsystemen). De kracht van een dergelijk systeem wordt bepaald door de mogelijkheden van de doelgenerator en de machine om de stelling te bewijzen. Om een ​​grotere zeggingskracht van de logische benadering te krijgen, is een relatief nieuwe richting als fuzzy logic mogelijk. Het belangrijkste verschil is dat de juistheid van de verklaring erin kan staan, naast ja / nee (1/0), ook tussenliggende waarden - ik weet het niet (0,5), de patiënt is waarschijnlijker in leven dan dood (0,75), is de patiënt waarschijnlijker dood dan levend (0,25). Deze benadering lijkt meer op menselijk denken, omdat het zelden vragen beantwoordt met alleen ja of nee.

2. Met structurele benadering bedoelen we hier pogingen om AI te bouwen door de structuur van het menselijk brein te modelleren. Een van de eerste dergelijke pogingen was de perceptron van Frank Rosenblatt. De belangrijkste gemodelleerde structurele eenheid in perceptrons (zoals in de meeste andere hersenmodelleringsopties) is een neuron. Later ontstonden andere modellen, die bij de meesten bekend zijn onder de term neurale netwerken (NN's). Deze modellen verschillen in de structuur van individuele neuronen, in de topologie van verbindingen daartussen en in leeralgoritmen. Een van de meest bekende varianten van NN zijn nu back-propagation NN, Hopfield-netwerken, stochastische neurale netwerken. In bredere zin staat deze benadering bekend als Connectivisme.

3. Evolutionaire benadering. Bij het bouwen van AI-systemen volgens deze aanpak wordt de meeste aandacht besteed aan de constructie van het initiële model en de regels waardoor het kan veranderen (evolueren). Bovendien kan het model worden samengesteld met behulp van verschillende methoden, het kan een neuraal netwerk zijn en een reeks logische regels en elk ander model. Daarna zetten we de computer aan en op basis van het controleren van de modellen selecteert deze de beste, op basis waarvan nieuwe modellen worden gegenereerd volgens allerlei regels. Onder evolutionaire algoritmen wordt het genetische algoritme als klassiek beschouwd.

4. Simulatiebenadering. Deze benadering is klassiek voor cybernetica met een van zijn basisconcepten zwarte doos. Het object waarvan het gedrag wordt gesimuleerd, is slechts een "zwarte doos". Het maakt ons niet uit wat het en het model van binnen hebben en hoe het functioneert, het belangrijkste is dat ons model zich in vergelijkbare situaties op dezelfde manier gedraagt. Zo wordt hier een andere eigenschap van een persoon gemodelleerd - het vermogen om te kopiëren wat anderen doen, zonder in details te treden waarom dit nodig is. Vaak bespaart dit vermogen hem veel tijd, vooral aan het begin van zijn leven.

In het kader van hybride intelligente systemen proberen ze deze gebieden te combineren. Deskundige inferentieregels kunnen worden gegenereerd door neurale netwerken en generatieve regels worden verkregen met behulp van statistisch leren.

Een veelbelovende nieuwe benadering, intelligentieversterking genaamd, ziet het bereiken van AI door evolutionaire ontwikkeling als een neveneffect van de versterking van menselijke intelligentie door technologie.

Onderzoek richtingen

Door de geschiedenis van AI te analyseren, kan men zo'n uitgebreid gebied als redeneringsmodellering onderscheiden. Gedurende vele jaren is de ontwikkeling van deze wetenschap langs dit pad gegaan en nu is het een van de meest ontwikkelde gebieden in moderne AI. Redeneringsmodellering omvat het creëren van symbolische systemen, aan de invoer waarvan een bepaalde taak wordt gesteld, en aan de uitvoer is het nodig om deze op te lossen. In de regel is de voorgestelde taak al geformaliseerd, d.w.z. vertaald in wiskundige vorm, maar heeft ofwel geen oplossingsalgoritme, ofwel is het te ingewikkeld, tijdrovend, enz. Dit gebied omvat: het bewijzen van stellingen, besluitvorming en speltheorie, planning en verzending, prognoses.

Een belangrijk gebied is natuurlijke taalverwerking, die de mogelijkheden analyseert om teksten in een "menselijke" taal te begrijpen, te verwerken en te genereren. Met name het probleem van de automatische vertaling van teksten van de ene taal naar de andere is nog niet opgelost. In de moderne wereld speelt de ontwikkeling van methoden voor het ophalen van informatie een belangrijke rol. Van nature is de oorspronkelijke Turing-test gerelateerd aan deze richting.

Volgens veel wetenschappers is een belangrijke eigenschap van intelligentie het vermogen om te leren. Zo komt kennistechnologie op de voorgrond, waarbij de taken van het verkrijgen van kennis uit eenvoudige informatie, hun systematisering en gebruik worden gecombineerd. Vooruitgang op dit gebied heeft invloed op bijna elk ander gebied van AI-onderzoek. Ook hier zijn twee belangrijke subdomeinen te vermelden. De eerste daarvan - machine learning - betreft het proces van onafhankelijke verwerving van kennis door een intelligent systeem in de loop van zijn werking. De tweede houdt verband met het creëren van expertsystemen - programma's die gespecialiseerde kennisbanken gebruiken om betrouwbare conclusies over elk probleem te verkrijgen.

Er zijn grote en interessante prestaties op het gebied van het modelleren van biologische systemen. Strikt genomen kunnen hier meerdere onafhankelijke richtingen worden opgenomen. Neurale netwerken worden gebruikt om vage en complexe problemen op te lossen, zoals geometrische vormherkenning of objectclustering. De genetische benadering is gebaseerd op het idee dat een algoritme efficiënter kan worden als het betere eigenschappen leent van andere algoritmen (“ouders”). Een relatief nieuwe benadering, waarbij het de taak is om een ​​autonoom programma te creëren - een agent die interageert met de externe omgeving, wordt de agentbenadering genoemd. En als je veel "niet erg intelligente" agenten op de juiste manier dwingt om samen te werken, kun je "mierachtige" intelligentie krijgen.

De taken van patroonherkenning zijn al gedeeltelijk opgelost in het kader van andere gebieden. Dit omvat karakterherkenning, handschrift, spraak, tekstanalyse. Speciale vermelding verdient computervisie, dat verband houdt met machine learning en robotica.

Over het algemeen worden robotica en kunstmatige intelligentie vaak met elkaar in verband gebracht. De integratie van deze twee wetenschappen, het creëren van intelligente robots, kan worden beschouwd als een andere richting van AI.

Machinecreativiteit onderscheidt zich doordat de aard van menselijke creativiteit nog minder bestudeerd is dan de aard van intelligentie. Niettemin bestaat dit gebied, en hier zijn de problemen van het schrijven van muziek, literaire werken (vaak - gedichten of sprookjes), artistieke creativiteit.

Ten slotte zijn er veel toepassingen van kunstmatige intelligentie, die elk een bijna zelfstandige richting vormen. Voorbeelden zijn programmeerintelligentie in computerspellen, niet-lineaire besturing, intelligente beveiligingssystemen.

Het is duidelijk dat veel onderzoeksgebieden elkaar overlappen. Dit geldt voor elke wetenschap. Maar in kunstmatige intelligentie is de relatie tussen schijnbaar verschillende richtingen vooral sterk, en dit komt door het filosofische debat over sterke en zwakke AI.

Aan het begin van de 17e eeuw suggereerde Rene Descartes dat het dier een soort complex mechanisme is, en formuleerde daarmee de mechanistische theorie. In 1623 bouwde Wilhelm Schickard de eerste mechanische digitale computer, gevolgd door de machines van Blaise Pascal (1643) en Leibniz (1671). Leibniz was ook de eerste die het moderne binaire getalsysteem beschreef, hoewel dit systeem voor hem periodiek werd meegesleept door vele grote wetenschappers. In de 19e eeuw werkten Charles Babbage en Ada Lovelace aan een programmeerbare mechanische computer.

Van 1910-1913. Bertrand Russell en A.N. Whitehead publiceerden Principia Mathematica, die een revolutie teweegbracht in de formele logica. In 1941 bouwde Konrad Zuse de eerste werkende programmagestuurde computer. Warren McCulloch en Walter Pitts publiceerden in 1943 A Logical Calculus of the Ideas Immanent in Nervous Activity, waarmee de basis werd gelegd voor neurale netwerken.

De huidige stand van zaken

Op dit moment (2008) bij de totstandkoming van kunstmatige intelligentie (in de oorspronkelijke zin van het woord horen expertsystemen en schaakprogramma's hier niet thuis) is er een gebrek aan ideeën. Bijna alle benaderingen zijn geprobeerd, maar geen enkele heeft geleid tot de opkomst van kunstmatige intelligentie. onderzoeksteam paste niet.

Enkele van de meest indrukwekkende civiele AI-systemen zijn:

Deep Blue - Versloeg de wereldkampioen schaken. (De wedstrijd Kasparov vs. supercomputer bracht geen voldoening bij computerwetenschappers of schakers, en het systeem werd niet herkend door Kasparov, hoewel de originele compacte schaakprogramma's een integraal onderdeel van schaakcreativiteit zijn. Toen manifesteerde de IBM-supercomputerlijn zich in de brute kracht BluGene (moleculaire modellering) projecten en de modellering van het piramidale celsysteem in Swiss Blue Brain Center. Dit verhaal is een voorbeeld van de ingewikkelde en geheime relatie tussen AI, zakelijke en nationale strategische doelen.)

Mycin was een van de eerste expertsystemen die een kleine subset van ziekten konden diagnosticeren, vaak net zo nauwkeurig als artsen.

20q is een AI-geïnspireerd project geïnspireerd op het klassieke 20 Questions-spel. Hij werd erg populair nadat hij op internet verscheen op de site 20q.net.

Spraakherkenning. Systemen als ViaVoice zijn in staat om consumenten te bedienen.

Robots in het jaarlijkse RoboCup-toernooi strijden in een vereenvoudigde vorm van voetbal.

Toepassing van AI

Banken passen kunstmatige intelligentiesystemen (AI) toe bij verzekeringsactiviteiten (actuariële wiskunde) bij het spelen op de beurs en het beheren van onroerend goed. In augustus 2001 versloegen robots mensen in een geïmproviseerde handelswedstrijd (BBC News, 2001). Patroonherkenningsmethoden (waaronder zowel complexere als gespecialiseerde en neurale netwerken) worden veel gebruikt in optische en akoestische herkenning (inclusief tekst en spraak), medische diagnostiek, spamfilters, luchtverdedigingssystemen (doelidentificatie), en ook om een ​​aantal andere nationale veiligheidstaken.

Ontwikkelaars van computergames worden gedwongen om AI van verschillende gradaties van verfijning te gebruiken. Standaard AI-taken in games zijn het vinden van een pad in 2D- of 3D-ruimte, het simuleren van het gedrag van een gevechtseenheid, het berekenen van de juiste economische strategie, enzovoort.

Perspectieven op AI

Er zijn twee richtingen van AI-ontwikkeling:

de eerste is om de problemen op te lossen die samenhangen met de aanpassing van gespecialiseerde AI-systemen aan menselijke capaciteiten en hun integratie, die wordt geïmplementeerd door de menselijke natuur.

de tweede is het creëren van een kunstmatige intelligentie die de integratie van reeds gemaakte AI-systemen in enkel systeem in staat om de problemen van de mensheid op te lossen.

Relatie met andere wetenschappen

Kunstmatige intelligentie is nauw verwant aan transhumanisme. En samen met neurofysiologie en cognitieve psychologie vormt het een meer algemene wetenschap die cognitologie wordt genoemd. Filosofie speelt een aparte rol in kunstmatige intelligentie.

Filosofische vragen

De wetenschap van "het creëren van kunstmatige intelligentie" kon niet anders dan de aandacht van filosofen trekken. Met de komst van de eerste intelligente systemen werden fundamentele vragen over mens en kennis, en deels over de wereldorde, opgeworpen. Enerzijds zijn ze onlosmakelijk verbonden met deze wetenschap, anderzijds brengen ze er wat chaos in. Onder AI-onderzoekers is er nog steeds geen dominant standpunt over de criteria van intellectualiteit, de systematisering van de op te lossen doelen en taken, er is zelfs geen strikte definitie van wetenschap.

Kan een machine denken?

Het meest verhitte debat in de filosofie van kunstmatige intelligentie is de kwestie van de mogelijkheid om de creaties van menselijke handen te denken. De vraag "Kan een machine denken?", die onderzoekers ertoe aanzette om de wetenschap van het modelleren van de menselijke geest te creëren, werd in 1950 gesteld door Alan Turing. De twee belangrijkste standpunten over deze kwestie worden de hypothesen van sterke en zwakke kunstmatige intelligentie genoemd.

De term "sterke kunstmatige intelligentie" werd geïntroduceerd door John Searle, en zijn aanpak wordt gekenmerkt door zijn eigen woorden:

“Bovendien zou zo'n programma niet alleen een model van de geest zijn; zij is in letterlijk woorden zelf zullen de rede zijn, in dezelfde zin als de menselijke rede rede is.

Integendeel, zwakke voorstanders van AI zien programma's liever alleen als een hulpmiddel voor het oplossen van bepaalde taken waarvoor niet het volledige scala van menselijke cognitieve vaardigheden vereist is.

In zijn gedachte experiment"Chinese Room" van John Searle laat zien dat het slagen voor de Turing-test geen criterium is voor een machine om een ​​echt denkproces te hebben.

Denken is het proces van het verwerken van informatie die in het geheugen is opgeslagen: analyse, synthese en zelfprogrammering.

Een vergelijkbaar standpunt wordt ingenomen door Roger Penrose, die in zijn boek The New Mind of a King stelt dat het onmogelijk is om een ​​denkproces te verkrijgen op basis van formele systemen.

Er zijn verschillende standpunten over deze kwestie. De analytische benadering omvat de analyse van hogere zenuwactiviteit van een persoon tot het laagste, ondeelbare niveau (de functie van hogere zenuwactiviteit, een elementaire reactie op externe stimuli (stimuli), irritatie van de synapsen van een reeks neuronen verbonden door een functie ) en de daaropvolgende reproductie van deze functies.

Sommige experts nemen het vermogen van een rationele, gemotiveerde keuze voor intelligentie, in het licht van een gebrek aan informatie. Dat wil zeggen, dat activiteitenprogramma (niet noodzakelijk geïmplementeerd op moderne computers) wordt eenvoudigweg als intellectueel beschouwd, dat kan kiezen uit een bepaalde reeks alternatieven, bijvoorbeeld waar te gaan in het geval van "u gaat naar links ... ”, “u gaat naar rechts ...”, “u gaat rechtdoor ...”

Wetenschap van kennis

Ook epistemologie is nauw verbonden met de problemen van kunstmatige intelligentie - de wetenschap van kennis in het kader van de filosofie. Filosofen die zich met dit probleem bezighouden, lossen vragen op die vergelijkbaar zijn met die van AI-ingenieurs over hoe kennis en informatie het beste kunnen worden weergegeven en gebruikt.

Houding ten opzichte van AI in de samenleving

AI en religie

Onder de aanhangers van de Abrahamitische religies zijn er verschillende standpunten over de mogelijkheid om AI te creëren op basis van een structurele aanpak.

Volgens een van hen nemen de hersenen, het werk waarvan de systemen proberen te imiteren, naar hun mening niet deel aan het denkproces, geen bron van bewustzijn en enige andere mentale activiteit. AI creëren op basis van een structurele aanpak is onmogelijk.

Volgens een ander gezichtspunt nemen de hersenen deel aan het denkproces, maar in de vorm van een "zender" van informatie uit de ziel. De hersenen zijn verantwoordelijk voor zulke "eenvoudige" functies als ongeconditioneerde reflexen, reactie op pijn, enz. Het creëren van AI op basis van een structurele aanpak is mogelijk als het systeem dat wordt ontworpen "overdrachts"-functies kan vervullen.

Beide posities komen niet overeen met de gegevens van de moderne wetenschap, want. het concept van de ziel wordt door de moderne wetenschap niet als een wetenschappelijke categorie beschouwd.

Volgens veel boeddhisten is AI mogelijk. Zo sluit de geestelijk leider van de Dalai Lama XIV de mogelijkheid van het bestaan ​​van bewustzijn op computerbasis niet uit.

Raelites ondersteunt actief ontwikkelingen op het gebied van kunstmatige intelligentie.

AI en sciencefiction

In sciencefictionliteratuur wordt AI meestal afgeschilderd als een kracht die probeert de kracht van een mens omver te werpen (Omnius, HAL 9000, Skynet, Colossus, The Matrix en een Replicant) of een humanoïde dient (C-3PO, Data , KITT en KARR, Bicentennial Man). Sciencefictionschrijvers als Isaac Asimov en Kevin Warwick betwisten de onvermijdelijkheid dat AI de wereld uit de hand loopt te domineren.

Een curieuze visie op de toekomst wordt gepresenteerd in Turing's Choice door sciencefictionschrijver Harry Harrison en wetenschapper Marvin Minsky. De auteurs praten over het verlies van menselijkheid bij een persoon wiens hersenen werden geïmplanteerd met een computer, en de verwerving van menselijkheid door een machine met AI, in wiens geheugen informatie uit het menselijk brein werd gekopieerd.

Sommige sciencefictionschrijvers, zoals Vernor Vinge, hebben ook gespeculeerd over de implicaties van AI, die waarschijnlijk dramatische veranderingen in de samenleving teweeg zal brengen. Deze periode wordt de technologische singulariteit genoemd.

Kunstmatige intelligentie

Kunstmatige intelligentie[Engels] Kunstmatige intelligentie (AI)] is een tak van de informatica die de mogelijkheid bestudeert om redelijk te redeneren en te handelen met behulp van computersystemen en andere kunstmatige apparaten.
In de meeste gevallen is het algoritme voor het oplossen van het probleem niet van tevoren bekend.
Vrijwel direct na de komst van de eerste computers werd het eerste onderzoek op het gebied van kunstmatige intelligentie gedaan.
In 1910-13 Bertrand Russell en Alfred North Whitehead publiceerden Principia Mathematica, die een revolutie teweegbracht in de formele logica. In 1931 toonde Kurt Gödel aan dat een voldoende complex formeel systeem uitspraken bevat die niettemin binnen dit systeem niet kunnen worden bewezen of weerlegd. Dus een AI-systeem dat de waarheid van alle uitspraken vaststelt door ze af te leiden uit axioma's, kan die uitspraken niet bewijzen. Omdat mensen de waarheid van dergelijke uitspraken kunnen 'zien', wordt AI gezien als een bijzaak. In 1941 bouwde Konrad Zuse de eerste werkende programmagestuurde computer. Warren McCulloch en Walter Pitts publiceerden in 1943 A Logical Calculus of the Ideas Immanent in Nervous Activity, waarmee de basis werd gelegd voor neurale netwerken.
In 1954 besloot de Amerikaanse onderzoeker A. Newell een programma voor schaken te schrijven. Hij deelde dit idee met de analisten J. Show en H. Simon van RAND Corporation (www.rand.org), die Newell hun hulp aanboden. Als theoretische basis voor een dergelijk programma werd besloten om de methode te gebruiken die in 1950 werd voorgesteld door C.E. Shannon, de grondlegger van de informatietheorie. Een nauwkeurige formalisering van deze methode werd gedaan door Alan Turing. Hij heeft het met de hand gemodelleerd. Een groep Nederlandse psychologen onder leiding van A. de Groot, die de speelstijlen van uitmuntende schakers bestudeerde, was bij het werk betrokken. Na twee jaar samenwerken, creëerde dit team de programmeertaal IPL1 - blijkbaar de eerste symbolische taal voor het verwerken van lijsten. Al snel werd het eerste programma geschreven, wat te danken is aan prestaties op het gebied van kunstmatige intelligentie. Dit was het programma "Logic Theorist" (1956), ontworpen om automatisch stellingen te bewijzen in propositiecalculus.
In feite werd het schaakprogramma NSS in 1957 voltooid. Het werk ervan was gebaseerd op de zogenaamde heuristieken (regels die je in staat stellen om een ​​keuze te maken zonder exacte theoretische gronden) en beschrijvingen van doelen. Het controlealgoritme probeerde de verschillen tussen de beoordelingen van de huidige situatie en de beoordelingen van het doel of een van de subdoelen te verkleinen.
In 1960 schreef dezelfde groep, gebaseerd op de principes die in NSS werden gebruikt, een programma dat de makers GPS (General Problem Solver) noemden - een universele probleemoplosser. GPS kan een aantal puzzels oplossen, onbepaalde integralen berekenen en een aantal andere problemen oplossen. Deze resultaten trokken de aandacht van specialisten op het gebied van informatica. Er zijn programma's verschenen voor het automatisch bewijzen van stellingen uit de planimetrie en het oplossen van algebraïsche problemen (geformuleerd in de Engelse taal).
John McCarty (J.McCarty) uit Stanford geïnteresseerd wiskundige grondslagen deze resultaten en symbolische berekeningen in het algemeen. Als gevolg hiervan ontwikkelde hij in 1963 de LISP-taal (LISP, van List Processing), die was gebaseerd op het gebruik van een enkele lijstrepresentatie voor programma's en gegevens, het gebruik van uitdrukkingen om functies te definiëren, haakjessyntaxis.
Logici begonnen ook interesse te tonen in onderzoek op het gebied van kunstmatige intelligentie. In dezelfde 1964 werd het werk van de Leningrad-logicus Sergei Maslov "Een inverse methode voor het vaststellen van afleidbaarheid in de klassieke predikaatrekening" gepubliceerd, waarin voor het eerst een methode werd voorgesteld voor het automatisch zoeken naar bewijzen van stellingen in de predikaatrekening .
Een jaar later (in 1965) verscheen het werk van J.A.Pobinson in de VS, gewijd aan een iets andere methode voor het automatisch zoeken naar bewijzen van stellingen in de predikaatberekening van de eerste orde. Deze methode werd de resolutiemethode genoemd en diende als startpunt voor het creëren van een nieuwe programmeertaal met een ingebouwde inferentieprocedure - de Prolog-taal (PROLOG) in 1971.
In 1966, in de USSR, ontwikkelde Valentin Turchin de taal van recursieve functies Refal, ontworpen om talen te beschrijven en verschillende soorten hun verwerking. Hoewel het was opgevat als een algoritmische metataal, was het voor de gebruiker, net als LISP en Prolog, een symbolische informatieverwerkingstaal.
Eind jaren 60. de eerste spelprogramma's, systemen voor elementaire tekstanalyse en het oplossen van enkele wiskundeproblemen(geometrie, integraalberekening). In de complexe opsommingsproblemen die in dit geval ontstonden, werd het aantal uit te zoeken opties sterk verminderd door gebruik te maken van allerlei heuristieken en " gezond verstand". Deze benadering begon heuristisch programmeren te worden genoemd. Verdere ontwikkeling van heuristisch programmeren volgde het pad van het compliceren van algoritmen en het verbeteren van heuristiek. Het werd echter al snel duidelijk dat er een bepaalde grens was waarboven geen verbetering in heuristiek en complicatie van het algoritme zou verbeter de kwaliteit van het systeem en, belangrijker nog, niet. Een programma dat schaak speelt, zal nooit dammen of kaartspellen spelen.
Geleidelijk aan begonnen onderzoekers te beseffen dat alle eerder gemaakte programma's het belangrijkste misten: kennis op het relevante gebied. Specialisten, problemen oplossen, bereiken hoge resultaten dankzij hun kennis en ervaring; als programma's toegang krijgen tot kennis en deze toepassen, zullen ze ook kwalitatief hoogstaand werk opleveren.
Dit begrip, dat in het begin van de jaren '70 ontstond, betekende in wezen een kwalitatieve sprong voorwaarts in het werk aan kunstmatige intelligentie.
Fundamentele overwegingen over dit onderwerp werden in 1977 geuit op de 5e Joint Conference on Artificial Intelligence door de Amerikaanse wetenschapper E. Feigenbaum.
Halverwege de jaren 70. de eerste toegepaste intelligente systemen verschijnen die verschillende methoden van kennisrepresentatie gebruiken voor het oplossen van problemen - expertsystemen. Een van de eerste was het DENDRAL-expertsysteem, ontwikkeld aan de Stanford University en ontworpen om formules te genereren chemische bestanddelen gebaseerd spectrale analyse. DENDRAL wordt momenteel aan klanten geleverd met een spectrometer. Het MYCIN-systeem is bedoeld voor de diagnose en behandeling van infectieuze bloedziekten. Het PROSPECTOR-systeem voorspelt minerale afzettingen. Er zijn aanwijzingen dat met zijn hulp molybdeenafzettingen werden ontdekt, waarvan de waarde meer dan $ 100 miljoen bedraagt. Het wadat enkele jaren geleden op basis van de Russische technologie SIMER + MIR werd geïmplementeerd, veroorzaakte de overschrijding van de maximaal toelaatbare concentraties van verontreinigende stoffen in de rivier de Moskva bij Serebryany Bor. Het CASNET-systeem is bedoeld voor het diagnosticeren en kiezen van een behandelstrategie voor glaucoom, enz.
Momenteel is de ontwikkeling en implementatie van expertsystemen een onafhankelijk engineeringgebied geworden. Wetenschappelijk onderzoek is geconcentreerd op een aantal gebieden, waarvan er enkele hieronder worden vermeld.
De theorie definieert niet expliciet wat precies de noodzakelijke en voldoende voorwaarden zijn voor het bereiken van intellectualiteit. Hoewel er op dit punt een aantal hypothesen zijn, bijvoorbeeld de Newell-Simon-hypothese. Meestal wordt de implementatie van intelligente systemen precies benaderd vanuit het oogpunt van het modelleren van menselijke intelligentie. In het kader van kunstmatige intelligentie zijn er dus twee hoofdgebieden:
■ symbolisch (semiotisch, top-down) is gebaseerd op het modelleren van processen van het menselijk denken op hoog niveau, op de representatie en het gebruik van kennis;
■ Neurocybernetica (neuraal netwerk, oplopend) is gebaseerd op het modelleren van individuele hersenstructuren op laag niveau (neuronen).
De supertaak van kunstmatige intelligentie is dus om een ​​intelligent computersysteem te bouwen dat een efficiëntieniveau zou hebben bij het oplossen van niet-geformaliseerde taken dat vergelijkbaar is met of superieur is aan een menselijke.
De meest gebruikte programmeerparadigma's bij het bouwen van kunstmatige-intelligentiesystemen zijn functioneel programmeren en logisch programmeren. Ze verschillen van traditionele structurele en objectgeoriënteerde benaderingen voor de ontwikkeling van programmalogica door niet-lineaire beslissingsinferentie en low-level tools om de analyse en synthese van datastructuren te ondersteunen.
Er zijn twee wetenschappelijke scholen met verschillende benaderingen van het probleem van AI: Conventionele AI en Computational AI.
In conventionele AI gebruikte voornamelijk machinale leermethoden op basis van formalisme en statistische analyse.
Conventionele AI-methoden:
■ Expertsystemen: programma's die volgens bepaalde regels een grote hoeveelheid informatie verwerken en op basis daarvan een conclusie uitbrengen.
■ Redeneren op basis van vergelijkbare gevallen (Case-based reasoning).
■ Bayesiaanse netwerken - dit is statistische methode patronen ontdekken in de data. Hiervoor wordt gebruik gemaakt van primaire informatie, ofwel in netwerkstructuren ofwel in databases.
■ Gedragsbenadering: een modulaire methode voor het bouwen van AI-systemen, waarbij het systeem is onderverdeeld in verschillende relatief autonome gedragsprogramma's die worden gelanceerd afhankelijk van veranderingen in de externe omgeving.
Computationele AI impliceert iteratieve ontwikkeling en training (bijvoorbeeld selectie van parameters in een connectiviteitsnetwerk). Leren is gebaseerd op empirische gegevens en wordt geassocieerd met niet-symbolische AI ​​en soft computing.
Belangrijkste methoden van computationele AI:
■ Neurale netwerken: systemen met uitstekende herkenningscapaciteiten.
■ Fuzzy-systemen: technieken voor redeneren onder onzekerheid (veel gebruikt in moderne industriële en consumentencontrolesystemen)
■ Evolutionaire berekeningen: het past concepten toe die traditioneel gerelateerd zijn aan biologie, zoals populatie, mutatie en natuurlijke selectie om de beste oplossingen voor het probleem te creëren. Deze methoden zijn onderverdeeld in evolutionaire algoritmen (bijv. genetische algoritmen) en zwermintelligentiemethoden (bijv. mierenkolonie-algoritme).
In het kader van hybride intelligente systemen proberen ze deze twee gebieden te combineren. Deskundige inferentieregels kunnen worden gegenereerd door neurale netwerken en generatieve regels worden verkregen met behulp van statistisch leren.
Perspectief richtingen van kunstmatige intelligentie.
CBR-methoden (Case-Based Reasoning Modeling) worden al in veel toepassingen gebruikt - in de geneeskunde, projectbeheer, voor het analyseren en reorganiseren van de omgeving, voor het ontwikkelen van massamarktproducten die rekening houden met de voorkeuren van verschillende consumentengroepen, enz. We mogen toepassingen verwachten van CBR-methoden voor de problemen van intelligent ophalen van informatie, e-commerce (goederen aanbieden, virtuele handelsbureaus creëren), planningsgedrag in dynamische omgevingen, koppelen, ontwerpen en synthetiseren van programma's.
Daarnaast mogen we een toenemende invloed verwachten van ideeën en methoden (AI) op machinale analyse van teksten (AT) in natuurlijke taal. Deze invloed zal hoogstwaarschijnlijk de semantische analyse en gerelateerde parseermethoden beïnvloeden - op dit gebied zal het zich manifesteren door rekening te houden met het model van de wereld in de laatste stadia van semantische analyse en door domeinkennis en situationele informatie te gebruiken om zoekopdrachten met meer vroege stadia(bijvoorbeeld bij het bouwen van ontledingsbomen).
Het tweede "communicatiekanaal" van AI en AT is het gebruik van machine learning-methoden in AT; het derde "kanaal" is het gebruik van op casussen gebaseerde redenering en op argumentatie gebaseerde redenering om enkele AT-problemen op te lossen, zoals ruisonderdrukking en verbetering van de zoekrelevantie.
tot een van de belangrijkste en veelbelovende richtingen In kunstmatige intelligentie zouden vandaag taken van automatische gedragsplanning moeten worden toegeschreven. De reikwijdte van automatische planningsmethoden is een grote verscheidenheid aan apparaten met een hoge mate van autonomie en doelgericht gedrag, van huishoudelijke apparaten tot onbemande ruimtevaartuigen voor verkenning van de diepe ruimte.

Gebruikte bronnen
1. Stuart Russell, Peter Norvig "Artificial Intelligence: A Modern Approach (AIMA)", 2e editie: Per. van Engels. - M.: Uitgeverij "Williams", 2005.-1424 pagina's met illustraties.
2. George F. Luger "Artificial Intelligence: Strategies and Solutions", 4e editie: Per. van Engels. - M.: Williams Publishing House, 2004.
3. Gennady Osipov, voorzitter van de Russische vereniging voor kunstmatige intelligentie, permanent lid van het Europees coördinatiecomité voor kunstmatige intelligentie (ECCAI), doctor in de fysische en wiskundige wetenschappen, professor "Artificial Intelligence: the state of research and a look into the future ."

Kunstmatige intelligentie

Kunstmatige intelligentie(AI, uit het Engels. Kunstmatige intelligentie, AI) - de wetenschap en technologie van het maken van intelligente machines, met name intelligente computerprogramma's.

AI is gerelateerd aan de vergelijkbare taak om computers te gebruiken om menselijke intelligentie te begrijpen, maar is niet noodzakelijk beperkt tot biologisch plausibele methoden.

AI is een wetenschappelijke richting die methoden ontwikkelt waarmee een elektronische computer intellectuele problemen kan oplossen als ze door een persoon worden opgelost. Het concept van "kunstmatige intelligentie" verwijst naar de functionaliteit van een machine om menselijke problemen op te lossen. Kunstmatige intelligentie is gericht op het verhogen van de efficiëntie van verschillende vormen van menselijke mentale arbeid.

De meest voorkomende vorm van kunstmatige intelligentie is een computer die is geprogrammeerd om op een specifiek onderwerp te reageren. Dergelijke "expertsystemen" hebben het menselijke vermogen om het analytische werk van een expert te doen. Een vergelijkbare tekstverwerker kan spelfouten detecteren, ze kunnen worden "getraind" in nieuwe woorden. naar dit Wetenschappelijke discipline sluit nauw aan op een ander, waarvan het onderwerp soms wordt genoemd " kunstmatig leven". Ze houdt zich meer bezig met intelligentie laag niveau. Een robot kan bijvoorbeeld worden geprogrammeerd om in de mist te navigeren, d.w.z. om het de mogelijkheid te geven om fysiek met de omgeving om te gaan.

De term "kunstmatige intelligentie" werd voor het eerst voorgesteld op een seminar met dezelfde naam aan het Dartsmouth College in de VS in 1956. Vervolgens gaven verschillende wetenschappers de volgende definities van kunstmatige intelligentie:

AI - een tak van informatica die wordt geassocieerd met de automatisering van intelligent gedrag;

AI is de wetenschap van de berekening die waarneming, gevolgtrekking en actie mogelijk maakt;

AI is een informatietechnologie die verband houdt met de processen van gevolgtrekking, leren en perceptie.

De geschiedenis van kunstmatige intelligentie als een nieuwe wetenschappelijke richting begint in het midden van de 20e eeuw. Tegen die tijd waren er al veel voorwaarden voor de oorsprong ervan gevormd: onder filosofen waren er al lang geschillen over de aard van de mens en het proces om de wereld te kennen, neurofysiologen en psychologen ontwikkelden een aantal theorieën over het werk menselijke brein en denkend, economen en wiskundigen stelden vragen over optimale berekeningen en representatie van kennis over de wereld in een geformaliseerde vorm; ten slotte werd de basis van de wiskundige theorie van de berekening - de theorie van algoritmen - geboren en werden de eerste computers gemaakt.

Het belangrijkste probleem van kunstmatige intelligentie is de ontwikkeling van methoden voor het representeren en verwerken van kennis.

Programma's voor kunstmatige intelligentie omvatten:

Spelprogramma's (stochastische, computerspellen);

Natuurlijke taalprogramma's - machinevertaling, tekstgeneratie, spraakverwerking;

Programma's herkennen - herkenning van handschrift, afbeeldingen, kaarten;

Programma's voor het maken en analyseren van grafiek, schilderkunst, muziekwerken.

De volgende gebieden van kunstmatige intelligentie worden onderscheiden:

Expertsystemen;

Neurale netwerken;

natuurlijke taalsystemen;

Evolutionaire methoden en genetische algoritmen;

vage reeksen;

Kennisextractiesystemen.

Expertsystemen zijn gericht op het oplossen van specifieke problemen.

Neurale netwerken implementeren neurale netwerkalgoritmen.

Zijn verdeeld in:

netwerken algemeen doel, die ongeveer 30 neurale netwerkalgoritmen ondersteunen en zijn geconfigureerd om specifieke problemen op te lossen;

Objectgeoriënteerd - gebruikt voor karakterherkenning, productiebeheer, voorspelling van situaties op valutamarkten,

Hybride - gebruikt in combinatie met bepaalde software (Excel, Access, Lotus).

Natuurlijke taal (NL) systemen zijn onderverdeeld in:

Softwareproducten voor natuurlijke taalinterface in de database (weergave van natuurlijke taalquery's in SQL-query's);

Zoeken in natuurlijke taal in teksten, zinvol scannen van teksten (gebruikt in internetzoekmachines, zoals Google);

Schaalbare spraakherkenningstools (draagbare simultaantolken);

Spraakverwerkingscomponenten als servicetools software(Besturingssysteem Windows XP).

Fuzzy sets - implementeer logische relaties tussen gegevens. Deze softwareproducten worden gebruikt om economische objecten te beheren, expertsystemen en beslissingsondersteunende systemen te bouwen.

Genetische algoritmen zijn methoden voor gegevensanalyse die niet met standaardmethoden kunnen worden geanalyseerd. In de regel worden ze gebruikt voor het verwerken van grote hoeveelheden informatie, het bouwen van voorspellende modellen. Gebruikt in wetenschappelijke doeleinden bij simulatiemodellering.

Kennisextractiesystemen - worden gebruikt om gegevens uit informatieopslag te verwerken.

Enkele van de meest bekende AI-systemen zijn:

Diepblauw- versloeg de wereldkampioen schaken. De wedstrijd Kasparov vs. supercomputer bracht geen tevredenheid bij computerwetenschappers of schakers, en het systeem werd niet herkend door Kasparov. De IBM-lijn van supercomputers manifesteerde zich vervolgens in de brute kracht BluGene (moleculaire modellering) en piramidale celsysteemmodelleringsprojecten in Blue Brain, Zwitserland.

Watson- een veelbelovende ontwikkeling van IBM, in staat om menselijke spraak waar te nemen en probabilistisch te zoeken, gebruikmakend van een groot aantal algoritmen. Om het werk te demonstreren, nam Watson deel aan het Amerikaanse spel "Jeopardy!", een analoog van "Own Game" in Rusland, waar het systeem in beide games wist te winnen.

MYCIN- een van de eerste expertsystemen die een kleine reeks ziekten konden diagnosticeren, en vaak zo nauwkeurig als artsen.

20Q- een project gebaseerd op de ideeën van AI, gebaseerd op het klassieke spel "20 vragen". Werd erg populair nadat hij op het internet verscheen op 20q.net.

Spraakherkenning. Systemen als ViaVoice zijn in staat om consumenten te bedienen.

Robots in het jaarlijkse RoboCup-toernooi strijden in een vereenvoudigde vorm van voetbal.

Banken gebruiken kunstmatige intelligentiesystemen (AI) bij verzekeringsactiviteiten (actuariële wiskunde), bij het spelen op de beurs en bij het beheren van onroerend goed. Patroonherkenningsmethoden (waaronder zowel complexere als gespecialiseerde methoden en neurale netwerken) worden veel gebruikt in optische en akoestische herkenning (inclusief tekst en spraak), medische diagnostiek, spamfilters, luchtverdedigingssystemen (doelidentificatie) en om een aantal andere nationale veiligheidstaken.

Ontwikkelaars van computerspellen gebruiken AI in verschillende mate van verfijning. Dit vormt het concept van "Game kunstmatige intelligentie". Standaard AI-taken in games zijn het vinden van een pad in 2D- of 3D-ruimte, het simuleren van het gedrag van een gevechtseenheid, het berekenen van de juiste economische strategie, enzovoort.

De grootste wetenschappelijke en onderzoekscentra op het gebied van kunstmatige intelligentie:

Verenigde Staten van Amerika (Massachusetts Institute of Technology);

Duitsland Duitser Onderzoekscentrum over kunstmatige intelligentie);

Japan ( Nationaal Instituut moderne industriële wetenschap en technologie (AIST));

Rusland (Wetenschappelijke Raad over de methodologie van kunstmatige intelligentie van de Russische Academie van Wetenschappen).

Tegenwoordig is er dankzij de vooruitgang op het gebied van kunstmatige intelligentie een groot aantal wetenschappelijke ontwikkelingen ontstaan, die het leven van mensen aanzienlijk vereenvoudigen. Herkenning van spraak of gescande tekst, het oplossen van computationeel complexe problemen in een korte tijd en nog veel meer - dit alles is beschikbaar gekomen dankzij de ontwikkeling van kunstmatige intelligentie.

Het vervangen van een menselijke specialist door kunstmatige-intelligentiesystemen, in het bijzonder natuurlijk door expertsystemen, waar dit is toegestaan, kan het productieproces aanzienlijk versnellen en verlagen. Kunstmatige intelligentiesystemen zijn altijd objectief en de resultaten van hun werk zijn niet afhankelijk van de momentane stemming en een aantal andere subjectieve factoren die inherent zijn aan de mens. Maar ondanks al het bovenstaande mag men geen dubieuze illusies koesteren en hopen dat in de nabije toekomst menselijke arbeid zal worden vervangen door het werk van kunstmatige intelligentie. De ervaring leert dat kunstmatige-intelligentiesystemen tegenwoordig de beste resultaten behalen wanneer ze in samenwerking met een persoon werken. Het is tenslotte een persoon, in tegenstelling tot kunstmatige intelligentie, die in staat is om buiten de gebaande paden en creatief te denken, waardoor hij zich gedurende zijn hele tijd kon ontwikkelen en vooruit kon gaan.

Gebruikte bronnen

1. www.aiportal.ru

3. nl.wikipedia.org

Nieuwe evolutionaire strategie van de mensheid

Hij wijst erop: “Het probleem is dat we nog niet algemeen kunnen bepalen welke rekenprocedures we intelligent willen noemen. We begrijpen sommige mechanismen van intelligentie en begrijpen andere niet. Daarom wordt intelligentie binnen deze wetenschap alleen begrepen als de computationele component van het vermogen om doelen in de wereld te bereiken.

Tegelijkertijd is er een standpunt dat intelligentie alleen een biologisch fenomeen kan zijn.

Zoals de voorzitter van de St. Petersburg-afdeling van de Russische Vereniging voor Kunstmatige Intelligentie T.A. Gavrilova opmerkt, luidt in het Engels de uitdrukking kunstmatige intelligentie heeft niet die enigszins fantastische antropomorfe kleur die het kreeg in een nogal mislukte Russische vertaling. Woord intelligentie- betekent "het vermogen om redelijk te redeneren", en helemaal niet "intelligentie", waarvoor er is Engels equivalent intellect .

Leden van de Russische Vereniging voor Kunstmatige Intelligentie geven de volgende definities van kunstmatige intelligentie:

Een van de privédefinities van intelligentie, die een persoon en een "machine" gemeen hebben, kan als volgt worden geformuleerd: "Intelligentie is het vermogen van een systeem om programma's te creëren (voornamelijk heuristiek) in de loop van zelflerend om problemen op te lossen van een bepaalde complexiteitsklasse en los deze problemen op”.

Vaak wordt kunstmatige intelligentie ook wel de eenvoudigste elektronica genoemd om de aanwezigheid van sensoren en automatische selectie van de bedrijfsmodus aan te geven. Het woord kunstmatig betekent in dit geval dat je niet mag verwachten dat het systeem een ​​nieuwe manier van werken kan vinden in een situatie die de ontwikkelaars niet voorzien hadden.

Vereisten voor de ontwikkeling van de wetenschap van kunstmatige intelligentie

De geschiedenis van kunstmatige intelligentie als een nieuwe wetenschappelijke richting begint in het midden van de 20e eeuw. Tegen die tijd waren er al veel voorwaarden voor de oorsprong ervan gevormd: onder filosofen waren er al lang geschillen over de aard van de mens en het proces om de wereld te kennen, neurofysiologen en psychologen ontwikkelden een aantal theorieën over het werk van het menselijk brein en denken, economen en wiskundigen stelden vragen over optimale berekeningen en representatie van kennis over de wereld in geformaliseerde vorm; ten slotte werd de basis van de wiskundige theorie van de berekening - de theorie van algoritmen - geboren en werden de eerste computers gemaakt.

De mogelijkheden van nieuwe machines op het gebied van rekensnelheid bleken groter dan die van mensen, dus de vraag schoof de wetenschappelijke gemeenschap binnen: wat zijn de grenzen van de mogelijkheden van computers en zullen machines het niveau van menselijke ontwikkeling bereiken? In 1950 schreef een van de pioniers op het gebied van computertechnologie, de Engelse wetenschapper Alan Turing, een artikel met de titel "Can a machine think?" , die een procedure beschrijft waarmee het mogelijk zal zijn om het moment te bepalen waarop een machine qua intelligentie gelijk wordt aan een persoon, de Turing-test genoemd.

De geschiedenis van de ontwikkeling van kunstmatige intelligentie in de USSR en Rusland

In de USSR begon het werk op het gebied van kunstmatige intelligentie in de jaren zestig. Een aantal baanbrekende studies werden uitgevoerd aan de Universiteit van Moskou en de Academie van Wetenschappen, onder leiding van Veniamin Pushkin en D.A. Pospelov.

In 1964 werd het werk van de Leningrad-logicus Sergei Maslov "Een inverse methode voor het vaststellen van afleidbaarheid in de klassieke predikaatrekening" gepubliceerd, waarin voor het eerst een methode werd voorgesteld voor het automatisch zoeken naar bewijzen van stellingen in de predikaatrekening.

Tot in de jaren zeventig, in de USSR, werd al het AI-onderzoek uitgevoerd in het kader van cybernetica. Volgens D.A. Pospelov waren de wetenschappen "informatica" en "cybernetica" in die tijd gemengd vanwege een aantal academische geschillen. Pas aan het eind van de jaren zeventig in de USSR begonnen ze te praten over de wetenschappelijke richting "kunstmatige intelligentie" als een tak van de informatica. Tegelijkertijd werd de informatica zelf geboren, waarbij de voorloper "cybernetica" werd onderworpen. Eind jaren zeventig verscheen een verklarend woordenboek over kunstmatige intelligentie, een driedelig naslagwerk over kunstmatige intelligentie en encyclopedisch woordenboek in Informatica, waarin de rubrieken "Cybernetica" en "Kunstmatige Intelligentie" samen met andere rubrieken worden opgenomen in de samenstelling van de informatica. De term 'computerwetenschap' werd wijdverbreid in de jaren tachtig en de term 'cybernetica' verdween geleidelijk uit de circulatie en bleef alleen in de namen van de instellingen die ontstonden tijdens het tijdperk van de 'cybernetische opmars' van de late jaren 1950 en vroege jaren 1960. Deze kijk op kunstmatige intelligentie, cybernetica en informatica wordt niet door iedereen gedeeld. Dit komt door het feit dat in het Westen de grenzen van deze wetenschappen enigszins anders zijn.

Benaderingen en richtingen

Benaderingen om het probleem te begrijpen

Er is geen eenduidig ​​antwoord op de vraag wat kunstmatige intelligentie doet. Bijna elke auteur die een boek over AI schrijft, vertrekt vanuit een bepaalde definitie erin, gezien de verworvenheden van deze wetenschap in het licht ervan.

  • aflopend (Engels) Top-down AI), semiotisch - het creëren van expertsystemen, kennisbanken en inferentiesystemen die mentale processen op hoog niveau imiteren: denken, redeneren, spraak, emoties, creativiteit, enz.;
  • oplopend (Engels) Bottom-up AI), biologisch - de studie van neurale netwerken en evolutionaire berekeningen die intellectueel gedrag modelleren op basis van biologische elementen, evenals het creëren van geschikte computersystemen, zoals een neurocomputer of biocomputer.

De laatste benadering is strikt genomen niet van toepassing op de wetenschap van AI in de zin van John McCarthy - ze zijn alleen verenigd door een gemeenschappelijk einddoel.

Turing-test en intuïtieve benadering

De empirische test werd voorgesteld door Alan Turing in het artikel " Computermachines en geest" Computermachines en intelligentie ) gepubliceerd in 1950 in het filosofische tijdschrift Verstand". Het doel van deze test is om de mogelijkheid van kunstmatig denken, dicht bij de mens, te bepalen.

De standaard interpretatie van deze test is als volgt: " Een persoon communiceert met één computer en één persoon. Aan de hand van de antwoorden op de vragen moet hij bepalen met wie hij praat: met een persoon of een computerprogramma. De taak van een computerprogramma is om een ​​persoon te misleiden en hem te dwingen de verkeerde keuze te maken.". Alle testdeelnemers zien elkaar niet.

  • De meest algemene benadering gaat ervan uit dat AI in normale situaties mensachtig gedrag kan vertonen. Dit idee is een veralgemening van de Turing-testbenadering, die stelt dat een machine intelligent wordt wanneer hij een gesprek kan voeren met een gewoon persoon, en hij zal niet kunnen begrijpen dat hij tegen de machine praat (de conversatie wordt per correspondentie gevoerd).
  • Sciencefictionschrijvers suggereren vaak een andere benadering: AI zal ontstaan ​​wanneer een machine kan voelen en creëren. Dus de eigenaar van Andrew Martin van "Bicentennial Man" begint hem als een persoon te behandelen wanneer hij speelgoed maakt volgens zijn eigen ontwerp. En Data van Star Trek, die in staat is om te communiceren en te leren, droomt ervan emoties en intuïtie te krijgen.

Het is echter onwaarschijnlijk dat deze laatste benadering in meer detail stand zal houden. Het is bijvoorbeeld gemakkelijk om een ​​mechanisme te creëren dat sommige parameters van de externe of interne omgeving evalueert en reageert op hun ongunstige waarden. We kunnen van zo'n systeem zeggen dat het gevoelens heeft ("pijn" is een reactie op de schoksensor, "honger" is een reactie op een lage batterijlading, enz.). En de clusters die zijn gemaakt door Kohonen-kaarten en vele andere producten van 'intelligente' systemen, kunnen worden beschouwd als een soort creativiteit.

symbolische benadering

Historisch gezien was de symbolische benadering de eerste in het tijdperk van digitale machines, aangezien het na de creatie van Lisp, de eerste symbolische computertaal, was dat de auteur ervan overtuigd raakte in de mogelijkheid om deze intelligentiemiddelen praktisch te implementeren. De symbolische benadering maakt het mogelijk om te werken met zwak geformaliseerde representaties en hun betekenissen.

Het succes en de efficiëntie van het oplossen van nieuwe problemen hangt af van het vermogen om alleen essentiële informatie te extraheren, wat flexibiliteit in abstractiemethoden vereist. Terwijl een regulier programma een van zijn eigen manieren bepaalt om gegevens te interpreteren, ziet zijn werk er daarom bevooroordeeld en puur mechanisch uit. In dit geval kan alleen een persoon, een analist of een programmeur, een intellectueel probleem oplossen en dit niet aan een machine toevertrouwen. Hierdoor ontstaat één abstractiemodel, een systeem van constructieve entiteiten en algoritmen. En flexibiliteit en veelzijdigheid resulteren in aanzienlijke resourcekosten voor typische taken, dat wil zeggen, het systeem keert terug van intelligentie naar brute kracht.

Het belangrijkste kenmerk van symbolische berekeningen is het creëren van nieuwe regels tijdens de uitvoering van het programma. Terwijl de mogelijkheden van niet-intelligente systemen zijn voltooid net voordat het vermogen om op zijn minst nieuw opkomende problemen aan te geven. Bovendien worden deze problemen niet opgelost en ten slotte verbetert de computer dergelijke mogelijkheden niet alleen.

Het nadeel van de symbolische benadering is dat dergelijke open kansen worden door onvoorbereide mensen gezien als een gebrek aan gereedschap. Dit nogal culturele probleem wordt gedeeltelijk opgelost door logisch programmeren.

logische benadering

De logische benadering van het creëren van kunstmatige-intelligentiesystemen is gericht op het creëren van expertsystemen met logische modellen van kennisbanken met behulp van de predikaattaal.

De logische programmeertaal en het systeem Prolog werd in de jaren tachtig aangenomen als het trainingsmodel voor kunstmatige-intelligentiesystemen. Kennisbanken die zijn geschreven in de Prolog-taal vertegenwoordigen verzamelingen van feiten en inferentieregels die zijn geschreven in de taal van logische predikaten.

Het logische model van kennisbanken stelt u in staat om niet alleen specifieke informatie en gegevens in de vorm van feiten in de Prolog-taal vast te leggen, maar ook algemene informatie met behulp van de regels en procedures voor gevolgtrekking, inclusief logische regels voor het definiëren van concepten die bepaalde kennis als specifiek uitdrukken en algemene informatie.

In het algemeen is het onderzoek naar de problemen van kunstmatige intelligentie in het kader van een logische benadering van het ontwerpen van kennisbanken en expertsystemen gericht op het creëren, ontwikkelen en exploiteren van intelligente informatiesystemen, met inbegrip van de problematiek van het onderwijzen van studenten en scholieren, zoals evenals het opleiden van gebruikers en ontwikkelaars van dergelijke intelligente informatiesystemen.

Agent-gebaseerde aanpak

De nieuwste aanpak, ontwikkeld sinds het begin van de jaren negentig, heet op agenten gebaseerde benadering, of aanpak gebaseerd op het gebruik van intelligente (rationele) agenten. Volgens deze benadering is intelligentie het computationele deel (grofweg, planning) van het vermogen om de doelen te bereiken die voor een intelligente machine zijn gesteld. Zo'n machine zelf zal een intelligente agent zijn, die de wereld om zich heen waarneemt met behulp van sensoren, en in staat is om objecten in de omgeving te beïnvloeden met behulp van actuatoren.

Deze benadering richt zich op die methoden en algoritmen die een intelligente agent helpen te overleven in de omgeving tijdens het uitvoeren van zijn taak. Hier worden dus veel zorgvuldiger algoritmen voor padvinding en besluitvorming bestudeerd.

Hybride aanpak

Hoofd artikel: Hybride aanpak

Hybride aanpak stelt enkel en alleen de synergetische combinatie van neurale en symbolische modellen bereikt het volledige spectrum van cognitieve en computationele mogelijkheden. Inferentieregels van experts kunnen bijvoorbeeld worden gegenereerd door neurale netwerken en generatieve regels worden verkregen met behulp van statistisch leren. Voorstanders van deze benadering zijn van mening dat hybride informatiesystemen veel sterker zullen zijn dan de som verschillende concepten afzonderlijk.

Modellen en onderzoeksmethoden

Symbolische modellering van denkprocessen

Hoofd artikel: Redeneren Modellering

Als je de geschiedenis van AI analyseert, kun je zo'n uitgebreide richting kiezen als: redeneermodellering. Gedurende vele jaren is de ontwikkeling van deze wetenschap langs dit pad gegaan en nu is het een van de meest ontwikkelde gebieden in moderne AI. Redeneringsmodellering omvat het creëren van symbolische systemen, aan de invoer waarvan een bepaalde taak wordt gesteld, en aan de uitvoer is het nodig om deze op te lossen. In de regel is het voorgestelde probleem al geformaliseerd, dat wil zeggen vertaald in wiskundige vorm, maar het heeft geen oplossingsalgoritme, of het is te ingewikkeld, tijdrovend, enz. Deze richting omvat: bewijs van stelling, besluitvorming, en spel theorie, planning en verzending , prognoses .

Werken met natuurlijke talen

Een belangrijke richting is: natuurlijke taalverwerking, die de mogelijkheden analyseert om teksten in een "menselijke" taal te begrijpen, te verwerken en te genereren. Binnen deze richting is het doel een dergelijke natuurlijke taalverwerking die in staat zou zijn om zelf kennis te verwerven door te lezen bestaande tekst beschikbaar op internet. Enkele directe toepassingen van natuurlijke taalverwerking zijn het ophalen van informatie (inclusief tekstmining) en machinevertaling.

Vertegenwoordiging en gebruik van kennis

Richting kennis engineering combineert de taken van het verkrijgen van kennis uit eenvoudige informatie, hun systematisering en gebruik. Deze richting is historisch geassocieerd met de schepping expertsystemen- programma's die gespecialiseerde kennisbanken gebruiken om betrouwbare conclusies te trekken over elk probleem.

De productie van kennis uit data is een van de basisproblemen van datamining. Er zijn verschillende benaderingen om dit probleem op te lossen, waaronder die op basis van neurale netwerktechnologie, met behulp van verbalisatieprocedures voor neurale netwerken.

Machinaal leren

Problemen machine learning betreft het proces onafhankelijk verwerving van kennis door een intellectueel systeem in het proces van zijn werking. Deze richting heeft vanaf het prille begin van de ontwikkeling van AI centraal gestaan. In 1956, op de Dartmund Summer Conference, schreef Ray Solomonoff een paper over een niet-gecontroleerde probabilistische machine genaamd de Inductive Inference Machine.

Robotica

Hoofd artikel: Intelligente robotica

Machine creativiteit

Hoofd artikel: Machine creativiteit

De aard van menselijke creativiteit wordt nog minder begrepen dan de aard van intelligentie. Niettemin bestaat dit gebied, en hier doen zich de problemen voor van het schrijven van muziek, literaire werken (vaak gedichten of sprookjes), artistieke creativiteit. Het maken van realistische afbeeldingen wordt veel gebruikt in de film- en game-industrie.

Afzonderlijk wordt de studie van de problemen van technische creativiteit van kunstmatige-intelligentiesystemen benadrukt. De theorie van inventieve probleemoplossing, in 1946 voorgesteld door G.S. Altshuller, markeerde het begin van dergelijk onderzoek.

Door deze functie aan elk intelligent systeem toe te voegen, kunt u heel duidelijk aantonen wat het systeem precies waarneemt en begrijpt. Door ruis toe te voegen in plaats van informatie te missen of ruis te filteren met de kennis die in het systeem beschikbaar is, worden concrete beelden geproduceerd van abstracte kennis die gemakkelijk door een persoon kunnen worden waargenomen, dit is vooral handig voor intuïtieve en laagwaardige kennis, waarvan de verificatie in een formele vorm vereist een aanzienlijke mentale inspanning.

Andere onderzoeksgebieden

Ten slotte zijn er veel toepassingen van kunstmatige intelligentie, die elk een bijna zelfstandige richting vormen. Voorbeelden zijn programmeerintelligentie in computerspellen, niet-lineaire besturing, intelligente informatiebeveiligingssystemen.

Het is duidelijk dat veel onderzoeksgebieden elkaar overlappen. Dit geldt voor elke wetenschap. Maar in kunstmatige intelligentie is de relatie tussen schijnbaar verschillende richtingen vooral sterk, en dit komt door het filosofische debat over sterke en zwakke AI.

Moderne kunstmatige intelligentie

Er zijn twee richtingen van AI-ontwikkeling:

  • het oplossen van problemen met betrekking tot de aanpassing van gespecialiseerde AI-systemen aan menselijke capaciteiten en hun integratie, die door de menselijke natuur wordt geïmplementeerd ( zie Intelligentieversterking);
  • het creëren van kunstmatige intelligentie, wat neerkomt op de integratie van reeds gecreëerde AI-systemen in een enkel systeem dat de problemen van de mensheid kan oplossen ( zie Sterke en zwakke kunstmatige intelligentie).

Maar op dit moment is er op het gebied van kunstmatige intelligentie een betrokkenheid van velen vakgebieden, die meer praktisch relevant zijn voor AI dan fundamenteel. Er zijn veel benaderingen geprobeerd, maar er is nog geen onderzoeksgroep op de proppen gekomen met de opkomst van kunstmatige intelligentie. Hieronder staan ​​slechts enkele van de meest opvallende AI-ontwikkelingen.

Sollicitatie

Toernooi RoboCup

Enkele van de meest bekende AI-systemen zijn:

Banken gebruiken kunstmatige intelligentiesystemen (AI) bij verzekeringsactiviteiten (actuariële wiskunde), bij het spelen op de beurs en bij het beheren van onroerend goed. Patroonherkenningsmethoden (waaronder zowel complexere als gespecialiseerde methoden en neurale netwerken) worden veel gebruikt in optische en akoestische herkenning (inclusief tekst en spraak), medische diagnostiek, spamfilters, luchtverdedigingssystemen (doelidentificatie) en om een aantal andere nationale veiligheidstaken.

Psychologie en cognitieve wetenschap

De methodologie van cognitieve modellering is ontworpen om te analyseren en beslissingen te nemen in slecht gedefinieerde situaties. Het werd voorgesteld door Axelrod.

Het is gebaseerd op het modelleren van de subjectieve ideeën van experts over de situatie en omvat: een methodologie voor het structureren van de situatie: een model voor het weergeven van expertkennis in de vorm van een ondertekende digraph (cognitieve kaart) (F, W), waarbij F een reeks situatiefactoren, W is een reeks oorzaak-en-gevolgrelaties tussen situatiefactoren; methoden van situatieanalyse. Momenteel ontwikkelt de methodologie van cognitieve modellering zich in de richting van verbetering van het apparaat voor het analyseren en modelleren van de situatie. Hier worden modellen voorgesteld om de ontwikkeling van de situatie te voorspellen; methoden om inverse problemen op te lossen.

Filosofie

De wetenschap van "het creëren van kunstmatige intelligentie" kon niet anders dan de aandacht van filosofen trekken. Met de komst van de eerste intelligente systemen werden fundamentele vragen over mens en kennis, en deels over de wereldorde, opgeworpen.

De filosofische problemen van het creëren van kunstmatige intelligentie kunnen worden onderverdeeld in twee groepen, relatief gezien, "voor en na de ontwikkeling van AI". De eerste groep beantwoordt de vraag: “Wat is AI, is het mogelijk om het te creëren en, indien mogelijk, hoe het te doen?” De tweede groep (de ethiek van kunstmatige intelligentie) stelt de vraag: “Wat zijn de gevolgen van de creatie van AI voor de mensheid?”

De term "sterke kunstmatige intelligentie" werd geïntroduceerd door John Searle, en zijn aanpak wordt gekenmerkt door zijn eigen woorden:

Bovendien zou zo'n programma meer zijn dan alleen een model van de geest; het zal letterlijk de geest zelf zijn, in dezelfde zin als de menselijke geest de geest is.

Tegelijkertijd is het noodzakelijk om te begrijpen of een "puur kunstmatige" geest ("metamin") mogelijk is, te begrijpen en te beslissen echte problemen en tegelijkertijd verstoken van emoties die kenmerkend zijn voor een persoon en noodzakelijk zijn voor zijn individuele overleving.

Integendeel, zwakke voorstanders van AI zien programma's liever alleen als een hulpmiddel voor het oplossen van bepaalde taken waarvoor niet het volledige scala van menselijke cognitieve vaardigheden vereist is.

Ethiek

Science fiction

Het onderwerp AI wordt in het werk van Robert Heinlein vanuit verschillende invalshoeken bekeken: de hypothese van het ontstaan ​​van AI-zelfbewustzijn wanneer de structuur boven een bepaald kritisch niveau complexer wordt en er interactie is met de buitenwereld en andere geestdragers ( "The Moon Is a Harsh Mistress", "Time Enough For Love", personages Mycroft, Dora en Aya in de serie "History of the Future), problemen met AI-ontwikkeling na hypothetisch zelfbewustzijn en enkele sociale en ethische kwesties (" Vrijdag"). De sociaal-psychologische problemen van menselijke interactie met AI komen ook aan bod in Philip K. Dick's roman "Do Androids Dream of Electric Sheep? ”, ook bekend van de verfilming van Blade Runner.

De creatie van virtual reality, kunstmatige intelligentie, nanorobots en vele andere problemen van de filosofie van kunstmatige intelligentie wordt beschreven en grotendeels voorzien in het werk van sciencefictionschrijver en filosoof Stanislav Lem. Van bijzonder belang is de futurologie De som van technologie. Daarnaast wordt in de avonturen van Iyon the Quiet herhaaldelijk de relatie tussen levende wezens en machines beschreven: de opstand van de boordcomputer gevolgd door onverwachte evenementen(11 reis), aanpassing van robots in menselijke maatschappij("Washing Tragedy" uit "Memories of Iyon the Quiet"), absolute orde op de planeet creëren door levende bewoners te verwerken (24e reis), uitvindingen van Corcoran en Diagor ("Memoirs of Iyon the Quiet"), een psychiatrische kliniek voor robots ("Herinneringen aan Iyon the Quiet") "). Daarnaast is er een hele cyclus van verhalen en verhalen Cyberiad, waarbij bijna alle personages robots zijn, verre afstammelingen van robots die aan mensen zijn ontsnapt (ze noemen mensen bleek en beschouwen ze als mythische wezens).

Films

Sinds bijna de jaren 60 worden er naast het schrijven van fantastische verhalen en romans ook films gemaakt over kunstmatige intelligentie. Veel verhalen van auteurs die over de hele wereld worden erkend, worden gefilmd en worden klassiekers van het genre, andere worden een mijlpaal in de ontwikkeling van sciencefiction, zoals The Terminator en The Matrix.

zie ook

Opmerkingen:

  1. Veelgestelde vragen van John McCarthy, 2007
  2. M. Andreas. Het echte leven en kunstmatige intelligentie // "Nieuws over kunstmatige intelligentie", RAII, 2000
  3. Gavrilova T. A. Khoroshevsky V. F. Kennisbanken van intelligente systemen: leerboek voor universiteiten
  4. Averkin A.N., Gaaze-Rapoport M.G., Pospelov D.A. Explanatory Dictionary of Artificial Intelligence. - M.: Radio en communicatie, 1992. - 256 p.
  5. G.S. Osipov. Kunstmatige intelligentie: de stand van zaken en een blik in de toekomst
  6. Ilyasov F. N. Mind kunstmatige en natuurlijke // Proceedings van de Academie van Wetenschappen van de Turkmeense SSR, een reeks sociale wetenschappen. 1986. Nr. 6. S. 46-54.
  7. Alan Turing, Kunnen machines denken?
  8. Intelligente machines S. N. Korsakov
  9. D.A. Pospelov. De vorming van informatica in Rusland
  10. Over de geschiedenis van cybernetica in de USSR. Essay één, Essay twee
  11. Jack Copeland. Wat is kunstmatige intelligentie? 2000
  12. Alan Turing, Computermachines en intelligentie, Mind, vol. LIX, nee. 236, oktober 1950, blz. 433-460.
  13. Natuurlijke taalverwerking:
  14. Toepassingen voor natuurlijke taalverwerking omvatten het ophalen van informatie (inclusief: tekstanalyse en machinevertaling):
  15. Gorban P.A. Neurale netwerkkennisextractie uit data en computerpsychoanalyse
  16. Machinaal leren:
  17. Alan Turing besprak al in 1950 een centraal onderwerp in zijn klassieke artikel Computing Machinery and Intelligence. ()
  18. (pdf gescande kopie van het origineel) (versie gepubliceerd in 1957, An Inductive Inference Machine, "IRE Convention Record, Section on Information Theory, Part 2, pp. 56-62)
  19. Robotica :
  20. , blz. 916–932
  21. , blz. 908-915
  22. Blue Brain Project - Kunstmatig brein
  23. Zachtaardige Watson spies menselijke tegenstanders in gevaar
  24. 20Q.net Inc.
  25. Axelrod R. De structuur van de beslissing: cognitieve kaarten van politieke elites. - Princeton. University Press, 1976
  26. John Sear. De geest van de hersenen - een computerprogramma?
  27. Penrose R. De nieuwe geest van de koning. Over computers, denken en de wetten van de natuurkunde. - M.: URSS, 2005. - ISBN 5-354-00993-6
  28. AI als wereldwijde risicofactor
  29. ... zal je leiden naar het eeuwige leven
  30. http://www.rc.edu.ru/rc/s8/intellect/rc_intellect_zaharov_2009.pdf Orthodoxe kijk op het probleem van kunstmatige intelligentie
  31. Harry Harrison. Turings keuze. - M.: Eksmo-Press, 1999. - 480 p. - ISBN 5-04-002906-3

Literatuur

  • De computer leert en redeneert (deel 1) // De computer wint aan intelligentie = Kunstmatige Intelligentie Computerbeelden / red. V.L. Stefanyuk. - Moskou: Mir, 1990. - 240 d. - 100.000 exemplaren. - ISBN 5-03-001277-X (Russisch); ISBN 705409155
  • Devyatkov V.V. Kunstmatige intelligentiesystemen / Ch. red. I.B. Fedorov. - M.: Uitgeverij van MSTU im. N.E. Bauman, 2001. - 352 p. - (Informatica aan de Technische Universiteit). - 3000 exemplaren. - ISBN 5-7038-1727-7
  • Korsakov S.N. Inschrijving van een nieuwe manier van onderzoek met behulp van machines die ideeën vergelijken / Ed. NET ZO. Michajlov. - M.: MEPhI, 2009. - 44 p. - 200 exemplaren. -