Kunstig Intelligens – en kort introduktion

Alan Turing

Definitioner af Kunstig Intelligens (Artificial Intelligence / AI)

Nedenfor fremhæves fire definitioner af Kunstig Intelligens (AI).

  • “Kunstig Intelligens er en disciplin helliget simuleringer af menneskelige kognitive evner på computeren” (Rajaram, 1990).
  • “Kunstig Intelligens er en ny videnskab og forsknings teorier, metoder og teknologier i simulering eller udvikling af menneskers tankeprocesser” (Ling-Fang, 2010).
  • “Kunstig Intelligens er et forsøg på at forstå indholdet af intelligens, og producere en ny intelligent maskine, der kan skabe reaktioner der ligner den menneskelige intelligens” (Ning og Yan, 2010).
  • “Evnen til en enhed at udføre funktioner, der normalt er forbundet med menneskelig intelligens, såsom ræsonnement og manipulere faktuel og heuristisk viden” (Hoseas, Harikrishnan og Rajkumar, 2011).

Feltet af Kunstig Intelligens (Artificial Intelligence: AI) har forbindelser til andre naturvidenskabelige områder som information teori, cybernetics, automatisering, bionics, biologi, phykology, matematisk logik, lingvistik, medicin og filosofi (Ning og Yan, 2010).

Hoseas, Harikrishnan og Rajkumar (Hoseas, Harikrishnan og Rajkumar, 2011) hævder, at en maskine er i sandhed AI, hvis det løser visse klasser af problemer, der kræver intelligens hos mennesker, eller overlever i et intellektuelt krævende miljø. Ifølge denne opfattelse, kan man opdele definitionen i to dele, den erkendelsesteoretiske del, der er, den virkelige verdens gengivelse af fakta , og den heuristiske del, hvor fakta hjælper med at løse problemet gennem regler . Forfatterne identificerer fire krav for at en enhed kan opfattes kan siges at have Kunstig Intelligens, og fremhæver de fordele og ulemper der er ved Kunstig Intelligens.

  • Krav: menneskelige følelser; Opret data til at træffe beslutninger; Selvbevidsthed; og kreativitet og fantasi.
  • Fordele ved AI: Intet behov for pauser eller sove; Rationelle eller forprogrammerede følelser kan føre til bedre beslutningstagning; Let at lave flere kopier.
  • Ulemper ved AI: Begrænset sanseindtryk i forhold til mennesker; Mennesker kan blive forværret, men stadig fungerer, enheder og applikationer kan hurtigt gå i stå, når mindre fejl sætter ind.

AI ses generelt som en intelligent støtte. Mennesker betragter sig selv som om de altid laver rationelle optimale valg. I det lys, vil intelligente computere altid forsøge at finde den rigtige medicinske diagnose eller forsøge at vinde et spil. Men virkeligheden er mere sløret. Mennesker kan have skjulte motiver for at tabe i et spil, måske for at lade et barn opbygge tillid eller foreskrive forskellige medicin baseret på patienter holdning (Waltz, 2006).

arif wahid 266541

Foto: Arif Wahid

marvin minsky
marvin minsky

AI fokuserer sig mere på teknik og har ingen faste teorier eller paradigmer. Når det er sagt, så er de tre vigtigste paradigmer opsummeret nederst, taget fra JB Baars “Global Workspace Theory” fra sin 1988 bog “En kognitiv teori om bevidsthed” (Baars, 2005) og den agent-baserede model, uafhængigt opfundet og forsvaret af RA Brooks (Brooks, 1990), og Marvin Minsky, i sin bog “Society of Mind” fra 1988 (Brunette, Flemmer og Flemmer, 2009).

Læs også  Security and Privacy in the Internet of Things

Baars: “Global Workspace Theory” bruger en teater metafor, hvor et rampelys skinner på ét område (på scenen), men der er en masse foregår bag scenen. Mennesker kan udfylde og fokusere på en opgave, mens mange andre ting der foregår på samme tid.

Minsky: mener, at bevidstheden er sammensat af mange mindre dele eller agenter, der tilsammen arbejder sammen om at producere intelligens.

Brooks: Opbygger kognition ved hjælp af en lagdelt tilgang, hvor hvert lag kan handle efter eller undertrykke input fra lag under det.

tim de groot 105620

Historie bag Kunstig Intelligens

claude shannon

Året 1956 og Dartmouth College betragtes som fødselsdato og fødested for kunstig intelligen (AI), da det er første gang udtrykket “Artificial Intelligence” er brugt. Mange af de fremmødte (John McCarthy, Marvin Minsky, Claude Shannon, Nathan Rochester, Arthur Samual, Allen Newell og Herbert Simon) blive førende på området for AI og åbner afdelinger på MIT, Stanford, Edinburgh, og Carnegie Mellon Universitetet (Brunette, Flemmer og Flemmer, 2009).

Men Alan Turings Turing Test fra 1950 indfanger ideerne om programmering af en digital computer til at opføre sig intelligent, så dens væremåde er uadskillelig fra et menneskes, og Stracheys noget kyniske Love Letters program program fra 1952 er også eksempler på intelligente computere (Hoseas, Harikrishnan og Rajkumar, 2011), ligeledes er også Vannevar Bush’s “Memex” -koncept fra 1945 og “The Turk” fra det attende århundrede (Buchanan, 2005).

h heyerlein 199082

john mccarthy

1950 – 1969: 1950’erne og 1960’erne oplever en stigning i metoder og programmer der forsøger sig med problemløsning, mønstergenkendelse og naturligt sprog forarbejdning (Natural Language Processing: NLP). Programmeringssproget LISP blev opfundet i 1960 af John McCarthy (Brunette, Flemmer og Flemmer, 2009). Men disse applikationer har problemer med at skalere til større enheder og har svært ved at påtage sig større problemer (Singh og Gupta, 2009). I 1969 dannes International Joint Conferences on Artificial Intelligence (IJCAI).

1970 – 1989: 1970 og begyndelsen af ​​1980’erne bygges større ekspertsystemer som Deep Blue, men man begynder også at forstår kompleksiteten af ​​AI og at dette er et meget mere kompliceret emne end først antaget. Programmeringssproget PROLOG føjes til AI stakken , så at man er i stand til at bruge logik til at ræsonnere om en videnbase. Slutningen af ​​1980’erne blev der indført intelligente agenter, der reagerer på deres omgivelser (Brunette, Flemmer og Flemmer, 2009).

Læs også  A brief history of Open Source Software

1990 – 1999: I 1990’erne begynder intelligente agenter, robotteknologi og legemliggjort intelligens at finde vej ind i R&D-projekter, med forbedring af computerkraft, sensorer og det underliggende teori. Applikationer () begynder at fokusere på at hjælpe virksomheder og organisationer. Slutningen af ​​1990’erne ser forbundne intelligente agenter, og fører til tanken om Distributed Artificial Intelligence via internettet.

2000 – til nu: Et hovedfokus er at tilføje bevidsthed, menneske lignende adfærd og følelser til maskiner (Brunette, Flemmer og Flemmer, 2009). Et andet fokusområde er machine learning, data mining, algoritmer, og kollektiv intelligens, hvilket skyldes mængden af ​​ustrukturerede og tilgængelig data på nettet (og i databaser), samt behovet for at hente mening ud af det hele (Singh og Gupta, 2009). AI spiller også en stor rolle i samfundsvidenskab og Social Network Analysis (SNA) (Ling-fang, 2010).

Fremtiden for Kunstig Intelligens: Waltz (Waltz, 2006) forudser, at fremtiden for AI, for de næste 20 år, vil blive bestemt af samspillet mellem tre faktorer: finansielle faktorer (finansiering) ; Tekniske faktorer (nyttige programmer), videnskabelige faktorer (intelligent fremskridt), med et hovedfokus på “kognitiv protese” og semantiske applikationer, dvs. at man retter sig mod en mere industriel revolutionær udsigt til at hjælpe mennesker udføre deres job og de opgaver, de ikke kan lide eller er dårlige til. Forskning i den bagvedliggende teori vil mindskes. Finansieringen skal komme fra private virksomheder som Google, Yahoo og Microsoft i samarbejde med den akademiske verden. NASA med National Science Foundation (NSF) og andre statslige organer vil ikke være villige til at fortsætte med at finansiere AI forskning. Waltz identificerer fem områder, der vil trives, nemlig:

  • Ekspert IA (machine learning og data mining)
  • Selvstyrende robotter (Reconnaissance, omsorg og pleje, udforskning af rummet)
  • Kognitiv Protese (Semantisk web-applikationer)

samt to andre områder:. AI teori og algoritmer og Turing Test AI , som Waltz betragter som wildcard områder, da de to områder vil have svært ved at producere konkrete resultater.

Begreber indefor Kunstig Intelligens

Alan Turing

Ekspert Systems (Ekspert AI): Ekspert systemer er baseret på en inference engine og en videnbase. Denne inference engine er ofte regelbaseret (Rajaram, 1990). Ekspert systemer bruges til at hjælpe med beslutningsprocessen. Eksempler: Blodforgiftning diagnostik og kredit godkendelse (Ling-fang, 2010).

Symbolsk matematiske systemer:. Computerprogrammer der er problemorienteret og bruger symboler i stedet for tal (Rajaram, 1990).

Intelligent Communication Systems: Giver mulighed for kommunikation mellem mennesker og maskiner (Rajaram, 1990).

Signal baserede systemer: Med signal baseret kommunikation menes input (visuelisering og audio genkendelse ) og output (visualisering og audio generering ) (Rajaram , 1990).

Symbol baserede systemer og Natural Language Processing (NLP): Symbol baseret kommunikation refererer til forståelsen af naturligt sprog, dvs. semantik eller ræsonnement om, hvad der menes i en sætning (Rajaram, 1990). I øjeblikket er det et område, der får en masse opmærksomhed, på grund af mængden af ​​data som findes på sociale medier og på internettet (Ling-fang, 2010).

Læs også  The Big Picture - A list of Multimedia Ontologies for MPEG-7 (part 2 of 2)

Machine Learning: Machine-learning ræsonerer om data ved at studere eksempler (statistik) og bruge problemløsning og beslutningstagning færdigheder baseret på dette, snarere end at følge et sæt regler (Rajaram, 1990)

Logic-Based Learning Systems: Her bruger computeren logik til at ræsonnere om input, dvs hvis dette og dette og dette er sandt, så denne også sand (Rajaram, 1990).

Biological Analog Learning Systems: Computere bygget til at ligne menneskelige krop og hjerne (Rajaram, 1990).

Robotics: Målet er at skabe maskiner, der kan udføre opgaver for mennesker, ikke blot på en industriel tidsalder måde med løbende automatisering, men at intelligent analysere hvert trin og træffe foranstaltninger, afhængigt af opgaven og behov (Ling-fang, 2010).

Referencer

  • Baars, J. B. (2005) Global workspace theory of consciousness: toward a cognitive neuroscience of human experience?”, Progress in Brain Research, Vol. 150, pp. 45 – 52.
  • Brooks, R. A. (1990) “Elephants Don’t Play Chess”, Robotics and Autonomous Systems Vol. 6, pp. 3 – 15.
  • Brunette, E. S., Flemmer, R. C. and Flemmer, C. L. (2009). “A Review of Artificial Intelligence. Proceedings of the 4th International Conference on Autonomous Robots and Agents., Wellington, New Zealand, p385-392.
  • Buchanan, B. G. (2005). “A (very) Brief History of Artificial Intelligence”, American Association for Artificial Intelligence – 25th anniversary issue, pp. 53 – 60.
  • Hosea, S., Harikrishnan, V. H. and Rajkumar, K. (2011) “Artificial Intelligence”, 3rd International Conference on Electronics Computer Technology, Vol. 1, pp. 124 – 129.
  • Ling-fang, H. (2010) Artificial Intelligence, 2nd International Conference on Computer and Automation Engineering (ICCAE), Vol. 4, pp. 575 – 578.
  • Ning, S., Yan, M. (2010) “Discussion on Research and Development of Artificial Intelligence”, IEEE International Conference on Advanced Management Science(ICAMS 2010), Vol. 1 , pp. 110 – 112.
  • Rajaram, N. S. (1990) “Artificial Intelligence: A Technological Review”. ISA Transactions. Vol. 29 (1), pp 1 – 3.
  • Singh, V. K. and Gupta, A. K. (2009) “From Artificial to Collective Intelligence: Perspectives and Implications”, 5th International Symposium on Applied Computational Intelligence and Informatics, Timisoara, Romania, pp. 545 – 549.
  • Waltz, D. A. (2006) “Evolution, Sociobiology, and the Future of Artificial Intelligence”, IEEE Intelligent Systems, pp 66 – 69.
No tags for this post.
%d bloggers like this:

Ved at bruge hjemmesiden accepterer du brugen af cookies mere information

Cookie indstillingerne på denne hjemmeside er aktiveret for at give dig den bedste oplevelse. Hvis du fortsætter med at bruge hjemmesiden uden at ændre dine cookie indstillinger eller du klikker Accepter herunder, betragtes dette som din accept

Luk