biografieën Eigenschappen Analyse

Google over het probleem van kunstmatige intelligentie: een machine is een perfect persoon. Kan een computer denken?

Om het leven van mensen te verbeteren, moet kunstmatige intelligentie in de eerste plaats mensgericht zijn. Zoals de hoofdwetenschapper uitlegt: Google Cloud Fei-Fei Li betekent in de praktijk het verbeteren van de communicatie- en samenwerkingsvaardigheden en het diversifiëren van de teams die deze technologieën ontwikkelen.

Kunstmatige intelligentie vandaag

Een van de grootste bedrijven op het gebied van kunstmatige intelligentie (AI) is Google, een bedrijf dat door velen wordt geassocieerd met de populaire zoekmachine. In de loop der jaren hebben zijn specialisten AI ontwikkeld, wat te zien is in sommige van de huidige producten. Bijvoorbeeld Google Assistant, die in februari werd uitgebracht voor Android-smartphones; daarnaast helpt AI de eerder genoemde zoekmachine ook om zijn werk te doen; tot slot is de Google Home smart speaker uitgerust met een AI-systeem. Op dit moment lijkt AI op een eersteklasser, maar op de lange termijn zou het het punt kunnen bereiken waarop het slimmer wordt dan de gemiddelde persoon die ermee omgaat.

Om dit doel te bereiken zal AI zelf echter eerst meer mensachtig moeten worden. Tenminste, dat vindt Fei-Fei Li, hoofdwetenschapper bij Google Cloud en directeur van het Stanford Artificial Intelligence and Vision Lab. Volgens haar zal AI ons op deze manier helpen ons dagelijks leven te verbeteren en psychologisch comfort te bieden tijdens de communicatie ermee.

In een interview met de MIT Technology Review legde Li uit dat nadenken over de impact van AI op de wereld om ons heen een cruciaal onderdeel is van het analytische proces en dat het werken met kunstmatige intelligentie duidelijk heeft aangetoond dat toekomstige ontwikkelingen meer mensgericht moeten zijn .

Ontwikkeling van machine-intelligentie

“Als we evalueren welk niveau AI-technologie op dit moment heeft bereikt, dan zal naar mijn mening uitstekende patroonherkenning de meest opvallende marker zijn. Moderne AI is te gefocust op , het mist het contextuele bewustzijn en flexibel leren dat inherent is aan mensen. We willen ook technologie maken die het leven van mensen beter, veiliger, productiever en beter maakt op het werk - en dat vereist een zeer hoog niveau van mens-machine-interactie”, zegt Lee.

De eerste tekenen van een dergelijke trend zijn al zichtbaar, hoewel het potentieel ervan nog moet worden onthuld. Zo demonstreerde Google DeepMind in juli AI die "verbeelding" heeft en in staat is om informatie te analyseren en acties te plannen zonder menselijke tussenkomst. Het bedrijf zei dat het geesteskind "op het punt staat" menselijke spraak perfect te imiteren. Een andere Google-technologie, Google Clips, is in staat om zelf foto's te maken, waardoor iemand niet meer hoeft te raden wat het "perfecte moment" is om te fotograferen. Dit past goed bij Lee's visie, maar benadrukt ook de noodzaak om verder te werken aan zelfredzaamheid van AI.

AI als de ideale mens van de toekomst

Zoals Lee verzekert, zal een eenvoudige upgrade van kunstmatige intelligentie en het toevoegen van nieuwe functies eraan niet voldoende zijn. Hoe sterker de verbinding tussen een machine en een persoon, hoe groter het risico dat immorele delen van de samenleving kunstmatige intelligentie kunnen beïnvloeden, en daarom is hier allereerst de creatieve benadering en het collectieve werk van veel specialisten nodig.

“Als je een technologie creëert die wijdverspreid is en een cruciale rol speelt voor de mensheid, dan moet je er natuurlijk voor zorgen dat deze de waarden draagt ​​die inherent zijn aan alle mensen en de behoeften van de hele bevolking van de aarde bedient. . Als de ontwikkelaars er alles aan doen om ervoor te zorgen dat het programma zonder uitzondering voor iedereen even nuttig is, zal dit inderdaad een revolutie in kunstmatige-intelligentiesystemen mogelijk maken.

Natuurlijk is kunstmatige intelligentie ons ticket naar de toekomst. Maar omdat het slechts een hulpmiddel is in de handen van een persoon, kan het zowel voor goede als voor egoïstische, soms zelfs illegale doeleinden worden gebruikt. Als deze technologie voorbestemd is om de wereld te veranderen, laten we dan hopen dat wetenschappers de juiste keuze maken.

Algoritmische kunstmatige intelligentie machine begrip van natuurlijke taal, d.w.z. vraag-antwoordsystemen en toegang tot natuurlijke taaldatabases, vertaling van de ene taal naar de andere, patroonherkenning, beeldanalyse van driedimensionale scènes, logistieke kennisrepresentatiesystemen en logische gevolgtrekking, heuristische programmering , stelling bewijzen, besluitvorming, games, databases, kennisbanken, robots, expertsystemen

Voorlopige definitie van denken De hersenen zijn ontstaan ​​en geëvolueerd om het bestaan ​​van dieren te verzekeren, dat wil zeggen om te overleven. Een eenvoudige functionele definitie van denken is mogelijk, gebaseerd op het idee waar denken voor is (mens of dier). Denken is een actief proces in het levende brein, gericht op: 1. het bouwen in het brein van een actief hiërarchisch model van de omgeving, noodzakelijk en voldoende voor de perceptie van de omgeving en de beheersing van actief doelgericht gedrag in een multi-extreme omgeving; 2. implementatie van het proces van beleving van de omgeving; 3. implementatie van het gedragsbeheersingsproces in een multi-extreme omgeving; 4. uitvoering van het leerproces; 5. oplossing van niet-algoritmische (creatieve) problemen.

De man vermoedde niet eens de afwezigheid van hersenen, en dit weerhield hem er niet van een volwaardig intellectueel leven te leiden. Een 44-jarige man, hoofd van het gemeentebestuur. De coëfficiënt van algemene intelligentie - IQ - is 75, verbaal - 84, non-verbaal - 70. Dit zijn echt niet erg grote waarden, maar over het algemeen liggen ze boven de ondergrens van de norm, die in de regel samenvalt met de waarde van 70.

In ieder van ons schuilt een draak. Organisatorisch kan het menselijk brein, net als alle hogere dieren, voorwaardelijk worden onderverdeeld in drie functionele structuren: het brein van reptielen, het stambrein (inclusief het ruggenmerg) en de neocortex. Gedrag, inclusief intellectueel gedrag, wordt bepaald door het integrale, verenigde werk van al deze structuren. Alles wat we van reptielen hebben geërfd, is net zo menselijk als de bevrediging van hogere spirituele behoeften. Veel zeer 'spirituele' leringen zijn in wezen een vorm van reptielengedrag. Het doden van de "Dragon", volgens de metafoor van E. Schwartz, is niet mogelijk. Met de "Dragon" kun je het alleen maar eens zijn.

Klassieke kunstmatige intelligentie zal waarschijnlijk niet worden belichaamd in denkmachines; de grens van de menselijke vindingrijkheid op dit gebied zal blijkbaar beperkt zijn tot het creëren van systemen die het werk van de hersenen nabootsen.

De wetenschap van kunstmatige intelligentie (AI) ondergaat een revolutie. Om de oorzaken en betekenis ervan te verklaren en in perspectief te plaatsen, moeten we ons eerst wenden tot de geschiedenis.

In het begin van de jaren vijftig maakte de traditionele, ietwat vage vraag of een machine kon denken plaats voor de meer toegankelijke vraag of een machine die fysieke symbolen manipuleerde volgens op structuur gebaseerde regels kon denken. Deze vraag is nauwkeuriger geformuleerd omdat de formele logica en de rekentheorie aanzienlijke vooruitgang hebben geboekt in de voorafgaande halve eeuw. Theoretici begonnen de mogelijkheden te waarderen van abstracte symboolsystemen die transformaties ondergaan in overeenstemming met bepaalde regels. Het leek erop dat als deze systemen konden worden geautomatiseerd, hun abstracte rekenkracht zich zou manifesteren in een echt fysiek systeem. Dergelijke opvattingen hebben bijgedragen aan de geboorte van een goed gedefinieerd onderzoeksprogramma op een vrij diepe theoretische basis.

Kan een machine denken?

Er waren veel redenen om ja te antwoorden. Historisch gezien was een van de eerste en diepste oorzaken twee belangrijke resultaten van de berekeningstheorie. Het eerste resultaat was de stelling van Church dat elke effectief berekenbare functie recursief berekenbaar is. De term "efficiënt berekenbaar" betekent dat er een soort "mechanische" procedure is waarmee het mogelijk is om het resultaat in een eindige tijd te berekenen, gegeven de invoergegevens. "Recursief berekenbaar" betekent dat er een eindige reeks bewerkingen is die op een gegeven invoer kan worden toegepast en vervolgens sequentieel en herhaaldelijk kan worden toegepast op de nieuw verkregen resultaten om de functie in een eindige tijd te berekenen. Het concept van een mechanische procedure is niet formeel, maar eerder intuïtief, en daarom heeft de stelling van Church geen formeel bewijs. Het raakt echter de kern van wat berekening is, en veel verschillende bewijzen komen samen om dit te ondersteunen.

Het tweede belangrijke resultaat werd verkregen door Alan M. Turing, die aantoonde dat elke recursief berekenbare functie in een eindige tijd kan worden berekend met behulp van een maximaal vereenvoudigde symboolmanipulatiemachine, die later de universele Turing-machine werd genoemd. Deze machine wordt beheerst door recursief toepasbare regels die gevoelig zijn voor de identiteit, volgorde en locatie van elementaire symbolen die als invoer fungeren.

Uit deze twee resultaten volgt een zeer belangrijk gevolg, namelijk dat een standaard digitale computer, voorzien van het juiste programma, voldoende groot geheugen en voldoende tijd, elke regelgestuurde functie met invoer en uitvoer kan berekenen. Met andere woorden, hij kan elke systematische reeks reacties op willekeurige invloeden uit de externe omgeving demonstreren.

Laten we dit als volgt concretiseren: de hierboven besproken resultaten betekenen dat een goed geprogrammeerde machine die symbolen manipuleert (hierna MC-machine genoemd) moet voldoen aan de Turing-test voor de aanwezigheid van een bewuste geest. De Turing-test is puur een gedragstest, maar de eisen zijn zeer streng. (Hoe valide deze test is, zullen we hieronder bespreken, waar we de tweede, fundamenteel andere "test" voor de aanwezigheid van een bewuste geest ontmoeten.) Volgens de originele versie van de Turing-test zou de invoer naar de MS-machine zijn vragen en zinnen in natuurlijke omgangstaal, die we typen op het toetsenbord van het invoerapparaat, en de uitvoer is de antwoorden van de MS-machine die door het uitvoerapparaat wordt afgedrukt. Een machine wordt geacht deze test voor de aanwezigheid van een bewuste geest te hebben doorstaan ​​als de reacties niet kunnen worden onderscheiden van die van een echte, intelligente persoon. Natuurlijk kent op dit moment niemand de functie waarmee het mogelijk zou zijn om een ​​output te verkrijgen die niet verschilt van het gedrag van een rationeel persoon. Maar de resultaten van Church en Turing garanderen ons dat wat deze (vermoedelijk efficiënte) functie ook is, een goed ontworpen MS-machine deze kan berekenen.

Dit is een zeer belangrijke conclusie, vooral gezien het feit dat Turing's beschrijving van interactie met een machine door middel van een typemachine een onbeduidende beperking is. Dezelfde conclusie geldt zelfs als de MC-machine op complexere manieren met de wereld interageert: via het apparaat van direct zicht, natuurlijke spraak, enz. Uiteindelijk blijft de complexere recursieve functie Turing berekenbaar. Er blijft maar één probleem over: die ongetwijfeld complexe functie vinden die de reacties van een persoon op invloeden uit de externe omgeving regelt, en dan een programma schrijven (een reeks recursief toepasbare regels) waarmee de MS-machine deze functie berekent. Deze doelen vormden de basis van het wetenschappelijke programma van de klassieke kunstmatige intelligentie.

De eerste resultaten waren bemoedigend

MC-machines met ingenieus geprogrammeerde programma's demonstreerden een hele reeks handelingen die bij de manifestaties van de geest leken te horen. Ze reageerden op complexe commando's, losten moeilijke rekenkundige, algebraïsche en tactische problemen op, speelden dammen en schaken, bewezen stellingen en voerden een eenvoudige dialoog. De resultaten bleven verbeteren met de komst van grotere opslagapparaten, snellere machines en de ontwikkeling van krachtigere en geavanceerdere programma's. Klassieke of "geprogrammeerde" AI is vanuit bijna elk gezichtspunt een zeer levendig en succesvol wetenschapsgebied geweest. De steeds terugkerende ontkenning dat MC-machines uiteindelijk zouden kunnen denken, leek bevooroordeeld en ongeïnformeerd. Het bewijs voor een positief antwoord op de vraag in de titel van het artikel leek meer dan overtuigend.

Natuurlijk waren er wat onduidelijkheden. Allereerst leken MS-machines niet veel op het menselijk brein. Maar ook hier had klassieke AI een overtuigend antwoord klaar. Ten eerste heeft het fysieke materiaal waarvan een MS-machine is gemaakt in wezen niets te maken met de functie die het berekent. Dat laatste staat op het programma. Ten tweede zijn de technische details van de functionele architectuur van de machine ook niet relevant, aangezien volledig verschillende architecturen, ontworpen om met totaal verschillende programma's te werken, toch dezelfde input-outputfunctie kunnen vervullen.

Daarom was het doel van AI om een ​​functie te vinden die kenmerkend is voor de geest in termen van input en output, en ook om de meest efficiënte van de vele mogelijke programma's te maken om deze functie te berekenen. Tegelijkertijd werd gezegd dat de specifieke manier waarop de functie door het menselijk brein wordt berekend er niet toe doet. Hiermee is de beschrijving van de essentie van klassieke AI en de gronden voor een positief antwoord op de vraag in de titel van het artikel compleet.

Kan een machine denken? Er waren ook enkele argumenten voor een negatief antwoord. Gedurende de jaren zestig waren opmerkelijke negatieve argumenten relatief zeldzaam. Er is wel eens het bezwaar geopperd dat het denken geen fysiek proces is en dat het plaatsvindt in een immateriële ziel. Een dergelijke dualistische visie leek echter niet overtuigend genoeg vanuit evolutionair of logisch oogpunt. Het heeft geen afschrikwekkend effect gehad op AI-onderzoek.

Overwegingen van andere aard trokken veel meer aandacht van AI-specialisten. In 1972 publiceerde Hubert L. Dreyfus een boek dat zeer kritisch was over parade-vertoningen van intelligentie in AI-systemen. Hij wees erop dat deze systemen het ware denken niet adequaat modelleren en ontdekte een patroon dat inherent was aan al deze mislukte pogingen. Naar zijn mening misten de modellen die enorme hoeveelheid niet-geformaliseerde algemene kennis over de wereld die een persoon heeft, evenals het vermogen dat inherent is aan gezond verstand om op bepaalde componenten van deze kennis te vertrouwen, afhankelijk van de vereisten van een veranderende omgeving . Dreyfus ontkende niet de fundamentele mogelijkheid om een ​​kunstmatig fysiek systeem te creëren dat in staat is te denken, maar hij was zeer kritisch over het idee dat dit alleen kon worden bereikt door symbolen te manipuleren met recursief toegepaste regels.

In de kringen van specialisten op het gebied van kunstmatige intelligentie, maar ook van redeneerfilosofen Dreyfus werden vooral als kortzichtig en vooringenomen beschouwd, gebaseerd op de onvermijdelijke vereenvoudigingen die inherent zijn aan dit nog zeer jonge onderzoeksgebied. Misschien hebben deze tekortkomingen echt plaatsgevonden, maar ze waren natuurlijk tijdelijk. De tijd zal komen dat krachtigere machines en betere programma's het mogelijk zullen maken om van deze tekortkomingen af ​​te komen. Het leek erop dat tijd werkt voor kunstmatige intelligentie. Deze bezwaren hadden dus geen merkbare impact op verder onderzoek op het gebied van AI.

Het bleek echter dat de tijd werkte voor Dreyfus: eind jaren '70 - begin jaren '80, verhoogde een toename van de snelheid en het geheugen van computers hun "mentale vermogens" niet veel. Zo bleek bijvoorbeeld dat patroonherkenning in machine vision-systemen onverwacht veel rekenwerk vergt. Om praktisch betrouwbare resultaten te verkrijgen, moest er steeds meer computertijd worden besteed, veel meer dan de tijd die nodig was om dezelfde taken uit te voeren voor een biologisch zichtsysteem. Zo'n langzaam simulatieproces was alarmerend: in een computer planten signalen zich immers ongeveer een miljoen keer sneller voort dan in de hersenen, en de klokfrequentie van de centrale verwerkingseenheid van de computer is ongeveer even hoog als de frequentie van eventuele gevonden oscillaties in de hersenen. En toch haalt de schildpad bij realistische taken gemakkelijk de haas in.

Daarnaast is het voor het oplossen van realistische problemen noodzakelijk dat het computerprogramma toegang heeft tot een extreem grote database. Het bouwen van zo'n database is op zich al een vrij moeilijk probleem, maar wordt nog verergerd door een andere omstandigheid: hoe in realtime toegang te verlenen tot specifieke, contextafhankelijke fragmenten van deze database. Naarmate de databases steeds omvangrijker werden, werd het toegangsprobleem gecompliceerder. Een uitputtende zoektocht duurde te lang en heuristische methoden waren niet altijd succesvol. Angsten vergelijkbaar met die van Dreyfus zijn begonnen te worden gedeeld, zelfs door sommige experts die werkzaam zijn op het gebied van kunstmatige intelligentie.

Rond deze tijd (1980) presenteerde John Searle een baanbrekend kritisch concept dat de zeer fundamentele veronderstelling van de klassieke AI-onderzoeksagenda in twijfel trok, namelijk het idee dat de correcte manipulatie van gestructureerde symbolen door recursief regels toe te passen die rekening houden met hun structuur , kan de essentie van de bewuste geest vormen.

Searle's belangrijkste argument was gebaseerd op een gedachte-experiment waarin hij twee zeer belangrijke feiten aantoont. Eerst beschrijft hij een MS-machine die (zoals we zouden moeten begrijpen) een functie implementeert die, bij invoer en uitvoer, de Turing-test kan doorstaan ​​in de vorm van een gesprek dat uitsluitend in het Chinees plaatsvindt. Ten tweede is de interne structuur van de machine zodanig dat ongeacht het gedrag dat deze vertoont, er voor de waarnemer geen twijfel over bestaat dat noch de machine als geheel, noch enig deel ervan, de Chinese taal verstaat. Het enige dat erin zit, is een persoon die alleen in het Engels is en de regels volgt die in de instructies zijn geschreven om de personages te manipuleren die door de brievenbus in de deur binnenkomen en uitgaan. Kortom, het systeem voldoet positief aan de Turing-test, ondanks het feit dat het geen echt begrip heeft van de Chinese taal en de feitelijke semantische inhoud van berichten (zie J. Searle's artikel "The Mind of the Brain - a Computer Program? ").

De algemene conclusie hieruit is dat elk systeem dat simpelweg fysieke symbolen manipuleert volgens structuurgevoelige regels, op zijn best een slechte parodie zal zijn op een echte bewuste geest, aangezien het onmogelijk is om "echte semantiek" te genereren door simpelweg aan de knop te draaien van " lege syntaxis". Hier moet worden opgemerkt dat Searle geen gedragstest (niet-gedragsmatig) voor de aanwezigheid van bewustzijn naar voren brengt: de elementen van de bewuste geest moeten een echte semantische inhoud hebben.

De verleiding is groot om Searle het feit te verwijten dat zijn gedachte-experiment niet adequaat is, aangezien het systeem dat hij voorstelt, dat werkt als een "Rubiks kubus", absurd langzaam zal werken. Searle benadrukt echter dat snelheid in dit geval geen rol speelt. Wie langzaam denkt, denkt nog steeds goed. Alles wat nodig is voor de reproductie van het denken, volgens het concept van klassieke AI, is naar zijn mening aanwezig in de "Chinese kamer".

Het artikel van Searle lokte enthousiaste reacties uit van AI-experts, psychologen en filosofen. Over het algemeen werd het echter nog vijandiger ontvangen dan het boek van Dreyfus. In zijn artikel, dat gelijktijdig in deze uitgave van het tijdschrift verschijnt, maakt Searle een aantal kritische argumenten tegen zijn concept. Naar onze mening zijn velen van hen legitiem, vooral degenen waarvan de auteurs gretig "het aas pakken", bewerend dat, hoewel het systeem dat bestaat uit een kamer en de inhoud ervan vreselijk traag is, het nog steeds Chinees verstaat.

We houden van deze antwoorden, maar niet omdat we denken dat de Chinese kamer Chinees verstaat. We zijn het met Searle eens dat ze hem niet begrijpt. De aantrekkingskracht van deze argumenten is dat ze een weerspiegeling zijn van het niet accepteren van het allerbelangrijkste derde axioma in Searle's argument: "Syntaxis op zich vormt geen semantiek en is niet voldoende voor het bestaan ​​van semantiek." Dit axioma kan waar zijn, maar Searle kan niet met recht beweren dat hij dit zeker weet. Bovendien is de suggestie dat het waar is de vraag stellen of het programma van klassiek AI-onderzoek deugdelijk is, aangezien dit programma gebaseerd is op de zeer interessante veronderstelling dat als we maar een adequaat gestructureerd proces in gang kunnen zetten, een soort interne dans van syntactische elementen, correct verbonden met de inputs en outputs, dan kunnen we dezelfde toestanden en manifestaties van de geest krijgen die inherent zijn aan de mens.

Dat Searle's derde axioma deze vraag echt oproept, wordt duidelijk wanneer we het rechtstreeks vergelijken met zijn eigen eerste conclusie: 'Programma's verschijnen als de essentie van de geest en hun aanwezigheid is niet voldoende voor de aanwezigheid van de geest.' Het is niet moeilijk in te zien dat zijn derde axioma al voor 90% van de conclusie bijna identiek is. Dit is de reden waarom het gedachte-experiment van Searle speciaal is ontworpen om het derde axioma te ondersteunen. Dit is het hele punt van de Chinese kamer.

Hoewel het voorbeeld van de Chinese kamer axioma 3 aantrekkelijk maakt voor niet-ingewijden, denken we niet dat het de geldigheid van dit axioma bewijst, en om het falen van dit voorbeeld aan te tonen, bieden we ons parallelle voorbeeld ter illustratie. Vaak is een enkel goed voorbeeld dat een betwiste claim weerlegt veel beter in het verduidelijken van de situatie dan een heel boek vol logisch jongleren.

Er zijn veel voorbeelden van scepticisme in de geschiedenis van de wetenschap, zoals we zien in de redenering van Searle. In de achttiende eeuw. De Ierse bisschop George Berkeley achtte het ondenkbaar dat compressiegolven in de lucht op zichzelf de essentie van geluidsverschijnselen zouden kunnen zijn of een voldoende factor voor hun bestaan ​​zouden kunnen zijn. De Engelse dichter en schilder William Blake en de Duitse natuuronderzoeker Johann Goethe achtten het ondenkbaar dat kleine deeltjes materie zelf een entiteit of factor zouden kunnen zijn die voldoende is voor het objectieve bestaan ​​van licht. Zelfs in deze eeuw zijn er mensen geweest die zich niet konden voorstellen dat levenloze materie op zichzelf, hoe complex de organisatie ook is, een organische entiteit of een toereikende levensconditie zou kunnen zijn. Het is duidelijk dat wat mensen zich wel of niet kunnen voorstellen, vaak niets te maken heeft met wat in werkelijkheid wel of niet bestaat. Dit geldt zelfs als het gaat om mensen met een zeer hoog niveau van intelligentie.

Laten we, om te zien hoe deze historische lessen kunnen worden toegepast op Searle's redenering, een kunstmatige parallel met zijn logica toepassen en deze parallel versterken met een gedachte-experiment.

Axioma 1. Elektriciteit en magnetisme zijn fysieke krachten.

Axioma 2. Een essentiële eigenschap van licht is helderheid.

Axioma 3. Krachten zelf verschijnen als de essentie van het gloei-effect en zijn niet voldoende voor de aanwezigheid ervan.

Conclusie 1. Elektriciteit en magnetisme zijn niet de essentie van licht en zijn niet voldoende voor zijn aanwezigheid.

Laten we aannemen dat deze redenering kort daarna werd gepubliceerd James K. Maxwell in 1864 suggereerde dat licht en elektromagnetische golven identiek waren, maar voordat de systematische parallellen tussen de eigenschappen van licht en de eigenschappen van elektromagnetische golven volledig in de wereld waren gerealiseerd. De bovenstaande logische redenering lijkt misschien een overtuigend bezwaar tegen de gewaagde hypothese van Maxwell, vooral als ze vergezeld gaat van de volgende opmerking ter ondersteuning van Axioma 3.

Denk aan een donkere kamer waarin een persoon een permanente magneet of een geladen voorwerp in zijn handen houdt. Als een persoon de magneet op en neer begint te bewegen, zal volgens Maxwells theorie van kunstmatige verlichting (AI), een zich voortplantende bol van elektromagnetische golven uit de magneet komen en zal de kamer helderder worden. Maar zoals iedereen die heeft geprobeerd met magneten of geladen ballen te spelen, heel goed weet, creëren hun krachten (en trouwens alle andere krachten), zelfs wanneer deze objecten in beweging zijn, geen enkele gloed. Daarom lijkt het ondenkbaar dat we een echt gloeiend effect zouden kunnen bereiken door simpelweg krachten te manipuleren!

Fluctuaties in elektromagnetische krachten zijn licht, hoewel de magneet die een persoon beweegt geen gloed produceert. Evenzo kan de manipulatie van symbolen volgens bepaalde regels intelligentie vertegenwoordigen, hoewel het op regels gebaseerde systeem dat in Searle's China Room wordt gevonden, echt begrip ontbreekt.

Wat zou Maxwell kunnen beantwoorden als hij deze uitdaging zou krijgen?

Ten eerste zou hij erop kunnen hebben aangedrongen dat het experiment met de "lichtgevende kamer" ons misleidt over de eigenschappen van zichtbaar licht, omdat de frequentie van de trilling van de magneet extreem laag is, ongeveer 1015 keer minder dan nodig. Dit kan worden gevolgd door het ongeduldige antwoord dat de frequentie hier geen rol speelt, dat de kamer met de oscillerende magneet al alles bevat wat nodig is voor de manifestatie van het gloei-effect, volledig in overeenstemming met de theorie van Maxwell zelf.

Op zijn beurt Maxwell zou "het aas kunnen pakken" door terecht te beweren dat de kamer al vol licht is, maar de aard en kracht van deze luminescentie is zodanig dat een persoon het niet kan zien. (Vanwege de lage frequentie waarmee een persoon een magneet beweegt, is de lengte van de opgewekte elektromagnetische golven te lang en de intensiteit te laag voor het menselijk oog om erop te reageren.) Gezien het niveau van begrip van deze verschijnselen in de beschouwde tijdsperiode (jaren '60 van de vorige eeuw) zou zo'n verklaring waarschijnlijk voor gelach en spottende opmerkingen hebben gezorgd. Gloeiende kamer! Maar neem me niet kwalijk, meneer Maxwell, het is daar helemaal donker!'

Dus we zien dat de armen Maxwell moet moeilijk zijn. Hij kan alleen maar aandringen op de volgende drie punten. Ten eerste is axioma 3 in de bovenstaande redenering niet waar. Inderdaad, ondanks het feit dat het intuïtief heel plausibel lijkt, stellen we er onwillekeurig een vraag over. Ten tweede laat het experiment met de gloeiende kamer ons niets interessants zien over de fysieke aard van licht. En ten derde, om het probleem van licht en de mogelijkheid van kunstmatige luminescentie echt op te lossen, hebben we een onderzoeksprogramma nodig waarmee we kunnen vaststellen of, onder de juiste omstandigheden, het gedrag van elektromagnetische golven volledig identiek is aan het gedrag van licht. Hetzelfde antwoord zou door de klassieke kunstmatige intelligentie moeten worden gegeven op de redenering van Searle. Hoewel Searle's Chinese kamer misschien "semantisch donker" lijkt, heeft hij weinig reden om vol te houden dat de manipulatie van symbolen, gedaan volgens bepaalde regels, nooit semantische verschijnselen kan veroorzaken, vooral omdat mensen nog steeds slecht geïnformeerd zijn en alleen beperkt door het begrip van de taal het niveau van gezond verstand van die semantische en mentale verschijnselen die moeten worden verklaard. In plaats van gebruik te maken van het begrip van deze dingen, maakt Searle in zijn redenering vrijelijk gebruik van het gebrek aan een dergelijk begrip bij mensen.

Nadat we onze kritiek op Searle's redenering hebben geuit, keren we terug naar de vraag of een klassiek AI-programma een reële kans heeft om het probleem van de bewuste geest op te lossen en een denkmachine te creëren. Wij zijn van mening dat de vooruitzichten hier niet rooskleurig zijn, maar onze mening is gebaseerd op redenen die fundamenteel verschillen van die welke door Searle worden gebruikt. We bouwen voort op specifieke tekortkomingen van het klassieke AI-onderzoeksprogramma en op een reeks lessen die het biologische brein ons heeft geleerd door middel van een nieuwe klasse computermodellen die enkele eigenschappen van zijn structuur belichamen. We hebben het al gehad over de mislukkingen van klassieke AI bij het oplossen van problemen die snel en efficiënt door de hersenen worden opgelost. Wetenschappers komen geleidelijk tot de consensus dat deze mislukkingen te wijten zijn aan de eigenschappen van de functionele architectuur van MS-machines, die eenvoudigweg ongeschikt zijn om de complexe taken ervoor op te lossen.

Wat we moeten weten, is hoe de hersenen het denkeffect bereiken? Reverse engineering is een wijdverbreide techniek in de techniek. Wanneer een nieuw stuk technologie op de markt komt, ontdekken concurrenten hoe het werkt door het uit elkaar te halen en te proberen het principe te raden waarop het is gebaseerd. In het geval van de hersenen is deze benadering buitengewoon moeilijk te implementeren, omdat de hersenen het meest complexe ding op aarde zijn. Desalniettemin zijn neurofysiologen erin geslaagd om veel eigenschappen van de hersenen op verschillende structurele niveaus te onthullen. Drie anatomische kenmerken onderscheiden het fundamenteel van de architectuur van traditionele elektronische computers.

Allereerst, is het zenuwstelsel een parallelle machine, in die zin dat signalen op miljoenen verschillende manieren gelijktijdig worden verwerkt. Het netvlies van het oog zendt bijvoorbeeld een complex ingangssignaal naar de hersenen, niet in batches van 8, 16 of 32 elementen, zoals een desktopcomputer, maar in de vorm van een signaal dat bestaat uit bijna een miljoen afzonderlijke elementen die gelijktijdig aankomen bij de uiteinde van de oogzenuw (het laterale geniculate body), waarna ze ook gelijktijdig, in één stap, door de hersenen worden verwerkt. Ten tweede is het elementaire 'verwerkingsapparaat' van de hersenen, het neuron, relatief eenvoudig. Ook is de reactie op een ingangssignaal analoog, niet digitaal, in die zin dat de frequentie van het uitgangssignaal continu verandert met de ingangssignalen.

Ten derde, in de hersenen vinden we, naast axonen die van de ene groep neuronen naar de andere leiden, vaak axonen die in de tegenovergestelde richting leiden. Deze terugkerende processen stellen de hersenen in staat om de manier waarop sensorische informatie wordt verwerkt te moduleren. Nog belangrijker is het feit dat de hersenen door hun bestaan ​​een echt dynamisch systeem zijn, waarin continu gehandhaafd gedrag wordt gekenmerkt door zowel een zeer hoge complexiteit als relatieve onafhankelijkheid van perifere prikkels. Vereenvoudigde netwerkmodellen hebben een nuttige rol gespeeld bij het bestuderen van de werkingsmechanismen van echte neurale netwerken en de computationele eigenschappen van parallelle architecturen. Denk bijvoorbeeld aan een drielaags model bestaande uit neuronachtige elementen die axonachtige verbindingen hebben met elementen van het volgende niveau. De invoerstimulus bereikt de activeringsdrempel van een bepaald invoerelement, dat een signaal van proportionele sterkte langs zijn "axon" naar de talrijke "synaptische" uiteinden van de elementen van de verborgen laag stuurt. Het algemene effect is dat een bepaald patroon van activerende signalen op een set ingangselementen een bepaald patroon van signalen genereert op een set verborgen elementen.

Hetzelfde kan gezegd worden over de outputelementen. Evenzo leidt de configuratie van activerende signalen bij de plak van de verborgen laag tot een bepaald patroon van activering bij de plak van de uitgangselementen. Samenvattend kunnen we zeggen dat het beschouwde netwerk een apparaat is voor het omzetten van een groot aantal mogelijke ingangsvectoren (configuraties van activeringssignalen) in een uniek corresponderende uitgangsvector. Dit apparaat is ontworpen om een ​​specifieke functie te berekenen. Welke functie het evalueert, hangt af van de globale configuratie van de synaptische gewichtsstructuur.

Neurale netwerken modelleren de belangrijkste eigenschap van de microstructuur van de hersenen. In dit drielaagse netwerk verwerken de ingangsneuronen (linksonder) het patroon van afvuursignalen (rechtsonder) en leiden ze door gewogen verbindingen naar de verborgen laag. De verborgen laagelementen vatten hun meerdere ingangen samen om een ​​nieuwe signaalconfiguratie te vormen. Het wordt doorgegeven aan de buitenste laag, die verdere transformaties uitvoert. Over het algemeen zal het netwerk elke inputset van signalen omzetten in de corresponderende output, afhankelijk van de locatie en relatieve sterkte van de verbindingen tussen neuronen.

Er zijn verschillende procedures voor het aanbrengen van gewichten, waardoor men een netwerk kan maken dat bijna elke functie kan berekenen (dwz elke transformatie tussen vectoren). In feite is het mogelijk om een ​​functie in het netwerk te implementeren die niet eens kan worden geformuleerd, het volstaat om het een reeks voorbeelden te geven die laten zien welke entry- en exit-lares we zouden willen hebben. Dit proces, "het leren van het netwerk" genoemd, wordt uitgevoerd door achtereenvolgens de gewichten te selecteren die aan de links zijn toegewezen, en dit gaat door totdat het netwerk de gewenste transformaties op de invoer begint uit te voeren om de gewenste uitvoer te verkrijgen.

Hoewel dit netwerkmodel de structuur van de hersenen aanzienlijk vereenvoudigt, illustreert het toch een aantal belangrijke aspecten. Ten eerste biedt de parallelle architectuur een enorm snelheidsvoordeel ten opzichte van een traditionele computer, aangezien de vele synapsen op elk niveau veel kleine rekenbewerkingen tegelijk uitvoeren, in plaats van in een zeer tijdrovende sequentiële modus te werken. Dit voordeel wordt steeds belangrijker naarmate het aantal neuronen op elk niveau toeneemt. Verrassend genoeg hangt de snelheid van informatieverwerking helemaal niet af van het aantal elementen dat op elk niveau bij het proces betrokken is, noch van de complexiteit van de functie die ze berekenen. Elk niveau kan vier elementen hebben, of honderd miljoen; een synaptische gewichtsconfiguratie kan eenvoudige eencijferige sommen berekenen of differentiaalvergelijkingen van de tweede orde oplossen. Het geeft niet. De rekentijd zal exact hetzelfde zijn.

Ten tweede, de parallelle aard van het systeem maakt het ongevoelig voor kleine fouten en geeft het functionele stabiliteit; het verlies van enkele verbindingen, zelfs een merkbaar aantal, heeft een verwaarloosbaar effect op de algemene voortgang van de transformatie die door de rest van het netwerk wordt uitgevoerd.

Ten derde, een parallel systeem slaat een grote hoeveelheid informatie op in een gedistribueerde vorm, terwijl het toegang geeft tot elk fragment van deze informatie in een tijd gemeten in enkele milliseconden. Informatie wordt opgeslagen in de vorm van bepaalde configuraties van de gewichten van individuele synaptische verbindingen die zijn gevormd tijdens het eerdere leerproces. De gewenste informatie wordt "vrijgegeven" wanneer de invoervector door deze verbindingsconfiguratie gaat (en deze transformeert).

Parallelle gegevensverwerking is niet ideaal voor alle soorten computers. Bij het oplossen van problemen met een kleine invoervector, maar waarvoor vele miljoenen snel terugkerende recursieve berekeningen nodig zijn, blijken de hersenen volledig hulpeloos te zijn, terwijl klassieke MS-machines hun beste capaciteiten demonstreren. Dit is een zeer grote en belangrijke computerklasse, zodat klassieke machines altijd en zelfs noodzakelijk zullen zijn. Er is echter een even brede klasse van berekeningen waarvoor de architectuur van de hersenen de beste technische oplossing is. Dit zijn voornamelijk de berekeningen waarmee levende organismen gewoonlijk worden geconfronteerd: het herkennen van de contouren van een roofdier in een "lawaaierige" omgeving; onmiddellijke herinnering aan de juiste reactie op zijn blik, de manier om te ontsnappen wanneer hij nadert of te verdedigen wanneer hij wordt aangevallen; onderscheid maken tussen eetbare en oneetbare dingen, tussen seksuele partners en andere dieren; gedragskeuze in een complexe en voortdurend veranderende fysieke of sociale omgeving; enzovoort.

Ten slotte is het erg belangrijk op te merken dat het beschreven parallelle systeem symbolen niet manipuleert volgens structurele regels. Symboolmanipulatie is slechts een van de vele andere "intelligente" vaardigheden die het netwerk wel of niet kan leren. Regelgestuurde symboolmanipulatie is niet de primaire manier waarop het netwerk functioneert. Searle's redenering is gericht tegen door regels bestuurde MC-machines; vectortransformatiesystemen van het type dat we hebben beschreven vallen dus buiten het bestek van zijn Chinese kamerargument, zelfs als het geldig zou zijn, waaraan we andere, onafhankelijke redenen hebben om te twijfelen.

Searle kent parallelle processors, maar naar zijn mening zullen ze ook verstoken zijn van echte semantische inhoud. Om hun onvermijdelijke minderwaardigheid in dit opzicht te illustreren, beschrijft hij een tweede gedachte-experiment, dit keer met een Chinese sportschool vol met mensen georganiseerd in een parallel netwerk. Het verdere verloop van zijn redenering is vergelijkbaar met de redenering in het geval van de Chinese kamer.

Naar onze mening is dit tweede voorbeeld niet zo succesvol en overtuigend als het eerste. Allereerst speelt het feit dat geen enkel element in het systeem Chinees verstaat een rol, want hetzelfde geldt voor het menselijk zenuwstelsel: geen enkel neuron in mijn brein verstaat Engels, hoewel het brein als geheel het wel begrijpt. . Searle gaat verder met te zeggen dat zijn model (één persoon per neuron plus één snelvoetige jongen per synaptische verbinding) minstens 1014 mensen nodig zou hebben, aangezien het menselijk brein 1011 neuronen bevat, elk met gemiddeld 103 verbindingen. Zijn systeem zou dus de bevolking van 10.000 werelden zoals onze aarde nodig hebben. Het is duidelijk dat de sportschool verre van in staat is om een ​​min of meer adequaat model te huisvesten.

Aan de andere kant, als zo'n systeem nog steeds zou kunnen worden geassembleerd, op de juiste kosmische schaal, met alle verbindingen nauwkeurig gemodelleerd, zouden we een enorm, langzaam, vreemd ontworpen, maar nog steeds functionerend brein hebben. In dit geval is het natuurlijk te verwachten dat hij met de juiste input zal denken, en niet omgekeerd, dat hij er niet toe in staat is. Het kan niet worden gegarandeerd dat de werking van een dergelijk systeem echt denken zal vertegenwoordigen, aangezien de theorie van vectorverwerking de werking van de hersenen mogelijk niet adequaat weerspiegelt. Maar op dezelfde manier hebben we geen a priori garantie dat ze niet zal denken. Searle identificeert opnieuw ten onrechte de huidige grenzen van zijn eigen (of van de lezer) verbeeldingskracht met de grenzen van de objectieve realiteit.

Brein

Het brein is een soort computer, hoewel de meeste eigenschappen ervan nog onbekend zijn. Het is verre van eenvoudig om de hersenen als een computer te karakteriseren, en een dergelijke poging moet niet te licht worden opgevat. De hersenen berekenen functies wel, maar niet op dezelfde manier als bij toegepaste taken die worden opgelost door klassieke kunstmatige intelligentie. Als we het hebben over een machine als een computer, bedoelen we niet een sequentiële digitale computer die moet worden geprogrammeerd en die een duidelijke scheiding heeft tussen software en hardware; evenmin bedoelen we dat deze computer symbolen manipuleert of bepaalde regels volgt. Het brein is een computer van een fundamenteel ander soort.

Hoe de hersenen de semantische inhoud van informatie vastleggen, is nog niet bekend, maar het is duidelijk dat dit probleem veel verder gaat dan de taalkunde en niet beperkt is tot de mens als soort. Een klein stukje verse aarde betekent, zowel voor de mens als voor de coyote, dat er ergens in de buurt een gopher is; een echo met bepaalde spectrale kenmerken geeft de aanwezigheid van een mot aan een vleermuis aan. Om een ​​theorie van betekenisvorming te ontwikkelen, moeten we meer weten over hoe neuronen sensorische signalen coderen en transformeren, de neurale basis van geheugen, leren en emotie, en de relatie tussen deze factoren en het motorsysteem. Een op neurofysiologie gebaseerde theorie voor het begrijpen van betekenis kan zelfs onze intuïtie vereisen, die ons nu zo onwankelbaar lijkt en die Searle zo vrijelijk gebruikt in zijn redenering. Dergelijke herzieningen zijn niet ongewoon in de geschiedenis van de wetenschap.

Kan de wetenschap kunstmatige intelligentie creëren met behulp van wat er bekend is over het zenuwstelsel? We zien geen fundamentele belemmeringen op dit pad. Searle zou het daarmee eens zijn, maar met een voorbehoud: "Elk ander systeem dat intelligentie kan genereren, moet causale eigenschappen hebben die (ten minste) gelijkwaardig zijn aan de overeenkomstige eigenschappen van de hersenen." Aan het einde van het artikel zullen we deze verklaring overwegen. Wij zijn van mening dat Searle niet beweert dat een succesvol AI-systeem noodzakelijkerwijs alle oorzakelijke eigenschappen van de hersenen moet hebben, zoals het vermogen om rotting te ruiken, het vermogen om virussen te dragen, het vermogen om geel te worden onder invloed van mierikswortelperoxidase, enz. Volledige naleving eisen zou hetzelfde zijn als vragen aan een kunstmatig vliegtuig om eieren te kunnen leggen.

Hij bedoelde waarschijnlijk alleen de eis dat een kunstmatige geest alle causale eigenschappen heeft die, zoals hij het uitdrukte, tot een bewuste geest behoren. Maar welke precies? En hier zijn we weer terug bij het geschil over wat tot de bewuste geest behoort en wat niet. Dit is gewoon de plek om te argumenteren, maar de waarheid in dit geval moet empirisch worden ontdekt - probeer en kijk wat er gebeurt. Omdat we zo weinig weten over wat het denkproces en de semantiek precies zijn, zou enige zekerheid over welke eigenschappen hier relevant zijn voorbarig zijn. Searle laat meerdere malen doorschemeren dat elk niveau, inclusief biochemie, moet worden vertegenwoordigd in elke machine die beweert kunstmatige intelligentie te zijn. Uiteraard is dit een te sterke eis. Een kunstmatig brein kan hetzelfde effect bereiken zonder gebruik te maken van biochemische mechanismen.

Deze mogelijkheid werd aangetoond in de studies van K. Mead aan het California Institute of Technology. Mead en zijn collega's gebruikten analoge micro-elektronische apparaten om een ​​kunstmatig netvlies en een kunstmatig slakkenhuis te creëren. (Bij dieren zijn het netvlies en het slakkenhuis niet alleen transducers: in beide systemen vindt complexe parallelle verwerking plaats.) Deze apparaten zijn niet langer eenvoudige modellen in een minicomputer waar Searle om grinnikt; het zijn echte informatieverwerkingselementen die in realtime reageren op echte signalen: licht in het geval van het netvlies en geluid in het geval van het slakkenhuis. De ontwerpen van het apparaat zijn gebaseerd op de bekende anatomische en fysiologische eigenschappen van het netvlies van de kat en het slakkenhuis van de kerkuil, en hun output ligt extreem dicht bij de bekende output van de organen die ze modelleren.

Deze microcircuits gebruiken geen neurotransmitters, daarom lijken neurotransmitters niet nodig om de gewenste resultaten te bereiken. We kunnen natuurlijk niet zeggen dat het kunstmatige netvlies iets ziet, omdat de output niet naar de kunstmatige thalamus of hersenschors gaat, enz. Of het mogelijk is om een ​​heel kunstmatig brein te bouwen met het Mead-programma, is nog niet bekend, maar op aanwezig We hebben geen bewijs dat de afwezigheid van biochemische mechanismen in het systeem deze benadering onrealistisch maakt.

Het zenuwstelsel omvat een hele reeks organisatievormen, van neurotransmittermoleculen (hieronder) tot de hele hersenen en het ruggenmerg. Tussenliggende niveaus bevatten individuele neuronen en neurale circuits, zoals die welke de selectiviteit van perceptie van visuele stimuli implementeren (in het midden), en systemen die uit vele circuits bestaan, vergelijkbaar met die welke de functies van spraak dienen (rechtsboven). Alleen door onderzoek kan men vaststellen hoe nauwkeurig een kunstmatig systeem biologische systemen met een geest kan reproduceren.

Net als Searle verwerpen we de Turing-test als een voldoende criterium voor het bestaan ​​van een bewuste geest. Op één niveau hebben we vergelijkbare redenen om dit te doen: we zijn het erover eens dat het erg belangrijk is hoe een functie gedefinieerd door input-output wordt geïmplementeerd; het is belangrijk dat de juiste processen in de machine plaatsvinden. Op een ander niveau laten we ons leiden door totaal andere overwegingen. Searle baseert zijn standpunt op de aan- of afwezigheid van semantische inhoud op intuïties van gezond verstand. Ons standpunt is gebaseerd op de specifieke storingen van klassieke MS-machines en de specifieke voordelen van machines waarvan de architectuur dichter bij de structuur van de hersenen ligt. Een vergelijking van deze verschillende soorten machines laat zien dat sommige rekenstrategieën een enorm en beslissend voordeel hebben ten opzichte van andere met betrekking tot typische mentale taken. Deze voordelen, empirisch vastgesteld, geven geen aanleiding tot twijfel. Het is duidelijk dat de hersenen systematisch profiteren van deze computationele voordelen. Het is echter zeker niet noodzakelijk het enige fysieke systeem dat hiervan kan profiteren. Het idee om kunstmatige intelligentie te creëren in een niet-biologische maar in wezen parallelle machine blijft zeer verleidelijk en veelbelovend.

Kunstmatige intelligentie is een wetenschapsgebied dat machines, computers en hardware ontwerpt met intelligentie variërend van de eenvoudigste tot de mensachtige. Hoewel het concept van intelligente machines zijn oorsprong vindt in de oude Griekse mythologie, begon de moderne geschiedenis van kunstmatige intelligentie met de ontwikkeling van computers. De term werd in 1956 bedacht tijdens de eerste kunstmatige intelligentieconferentie.

Decennia later blijven wetenschappers de nog steeds ongrijpbare glimpen van machine-intelligentie onderzoeken, ook al is de vraag "kan een machine denken?" roept nog steeds de grootste discussie op.


Het is vermeldenswaard dat, in tegenstelling tot wat vaak wordt gedacht, niet alle dragers van kunstmatige intelligentie humanoïde robots of fantastische besturingssystemen zijn met de stem van Scarlett Johansson. Laten we eens kijken naar de basisvaardigheden die inherent zijn aan AI.

Probleemoplossing

Een van de basiskwaliteiten van AI is het vermogen om problemen op te lossen. Om de machine deze mogelijkheid te geven, hebben wetenschappers hem uitgerust met algoritmen die het menselijk denken nabootsen en de concepten waarschijnlijkheid, economie en statistiek gebruiken.

Benaderingen omvatten modellen die zijn geïnspireerd op neurale netwerken in de hersenen, de kracht van machine learning en patroonherkenning, en statistische benaderingen die wiskundige hulpmiddelen en talen gebruiken om problemen op te lossen.

Machinaal leren

Een ander basispunt van AI is het vermogen van een machine om te leren. Tot nu toe is er geen enkele benadering waarbij een computer kan worden geprogrammeerd om informatie te ontvangen, kennis te verwerven en het gedrag daarop af te stemmen. Er zijn eerder een aantal benaderingen gebaseerd op algoritmen.

Een van de belangrijke methoden van machine learning is het zogenaamde deep learning, een AI-methode gebaseerd op neurale theorie en bestaande uit ingewikkelde lagen van onderling verbonden knooppunten. Hoewel Siri van Apple een voorbeeld is van diep leren in actie, heeft Google onlangs DeepMind overgenomen, een startup die gespecialiseerd is in geavanceerde AI-leeralgoritmen; Ook Netflix investeert in deep learning.

taalverwerking

Natural Language Processing (NLP) geeft een machine de mogelijkheid om menselijke taal te lezen en te begrijpen, waardoor communicatie tussen mens en machine mogelijk wordt.

Dergelijke systemen stellen computers in staat om te vertalen en te communiceren via signaalverwerking, parsing, semantische analyse en pragmatiek (taal in context).

Beweging en perceptie

Het type intelligentie dat wordt geassocieerd met beweging en waarneming is nauw verwant aan robotica, wat de machine niet alleen cognitieve, maar ook sensorische intelligentie geeft. Dit wordt mogelijk gemaakt door navigatie-invoer, lokalisatietechnologie en sensoren zoals camera's, microfoons, sonars en objectherkenning. De afgelopen jaren hebben we deze technologieën al in veel robots, oceaan- en ruimterovers gezien.

sociale intelligentie

Emotionele en sociale vaardigheden vertegenwoordigen een ander geavanceerd niveau van kunstmatige intelligentie waarmee de machine nog meer menselijke eigenschappen kan aannemen. SEMAINE, bijvoorbeeld, wil machines zulke sociale vaardigheden geven door middel van wat het SAL noemt, of 'kunstmatige zintuiglijke luisteraar'. Dit is een geavanceerd dialoogsysteem, als het kan worden voltooid, zal het de gezichtsuitdrukking, het uiterlijk en de stem van een persoon kunnen waarnemen en dienovereenkomstig aanpassen.

creatie

Het vermogen om creatief te denken en te handelen is een kenmerkende menselijke eigenschap die velen als superieur beschouwen aan de mogelijkheden van computers. Als een aspect van menselijke intelligentie kan creativiteit echter ook worden toegepast op kunstmatige intelligentie.

Er wordt gezegd dat machines de kans kunnen krijgen om waardevolle en innovatieve ideeën te produceren via drie modellen: combinatorisch, verkennend en transformationeel. Hoe dit precies zal worden geïmplementeerd, zullen we in de toekomst zien. De AARON-machine produceert immers al kunstwerken van museumkwaliteit.

Improvisatie als menselijke activiteit is "een prototype van creatief gedrag", zegt Shelly Carson, lid van de psychologieafdeling van de Harvard University. In haar boek Your Creative Brain schrijft ze dat op een basisniveau ieder van ons improviseert, omdat er veel situaties in het leven zijn die dat vereisen. Op de weg moet u bijvoorbeeld direct de enige juiste beslissing nemen om een ​​aanrijding te voorkomen. In dit geval verwijst een persoon naar zijn ervaring. Maar creatieve improvisatie is meer, het genereert nieuwe onverwachte ideeën.

Aarons schilderij



Robot AARON, gemaakt door de beroemde kunstenaar Gorald Cohen. Zijn uitvinding, op het laagste niveau, berekende algoritmen voor het maken van lijnen en vormen waaruit tekeningen werden gemaakt. Later, een meer geavanceerde robotkunstenaar genaamd Actie Jackson die schilderijen schilderde die vergelijkbaar waren met de werken van Jackson Pollock. En hoewel het debat over de artistieke waarde van dergelijke werken tot nu toe niet verstomt, blijft het feit dat robots kunnen creëren.

Bovendien lijken sommige moderne vormen van kunstmatige intelligentie grote successen te kunnen boeken. Siri voor iPhone verwerkt bijvoorbeeld niet alleen natuurlijke menselijke spraak, maar past zich ook individueel aan elke gebruiker aan en bestudeert zijn karakter en gewoonten; en IBM's "Watson"-supercomputer won een miljoen dollar in "His Game". Zouden zulke perfecte machines niet tegen improvisatie kunnen?