AI’s store udfordringer med simpel logik
Store sprogmodeller som GPT-4o imponerer ofte med deres komplekse opgaveløsningsevner, men selv disse avancerede modeller har store vanskeligheder med at løse basale logiske gåder, som små børn kan håndtere.
Et klassisk problem stiller spørgsmålstegn ved AI’s “intelligens”
Den velkendte flodkrydsningsopgave kræver grundlæggende planlægning og logisk tænkning. Problemstillingen, hvor en bonde skal transportere en ulv, en ged og et kålhoved over en flod uden at efterlade nogen i fare, virker let nok for mennesker, men er tilsyneladende en stor udfordring for nutidens førende AI-modeller.
Praktiske eksperimenter viser bekymrende resultater
Professor Sir William Timothy Gowers og andre har brugt varianter af denne simple problemstilling til at demonstrere, hvor mangelfuld kunstig intelligens kan være i logisk tænkning. Selv når opgaverne gøres enklere end den oprindelige, falder systemerne ofte igennem i forsøgene på selvstændigt at generere rationelle løsninger.
Meta-eksperter diskuterer årsagerne
Yann LeCun fra Meta understreger, at LLM’er mangler almene ræsonnementsevner og ikke besidder en basal forståelse for eller kapacitet til at skabe handlingplaner. Er dette en indikation af LLM’ernes sande natur, eller spiller andre faktorer ind?
Indflydelsen fra træningsdata
Nyere eksperimenter viser, hvordan LLM’ernes output kan være unødigt påvirket af deres forudgående træningsdata. Dette har ført til fejlagtige løsninger på ellers simple opgaver og rejser spørgsmål om, hvorvidt AI virkelig “tænker” eller blot efteraber løsninger baseret på tidligere input.
Diskussionerne fortsætter om, hvor vidt avanceret AI virkelig forstår de problemer, den præsenteres for, eller om den bare er ekstraordinært god til at gætte sig frem baseret på tidligere data.