Westworld, első évad
2016. december 9. 16:02

Westworld, az 1. évad

A Westworld sok tekintetben bátran nyúlt a megszokott robot történet sablonjához, de a végére mégis gyáva maradt. Sajnos.

Asimov óta a robotok sok újdonságot nem tudnak okozni. Már annak, aki olvasta Asimovot. A Westworldnek sem sikerült kibújnia a Mester köpenyéből. Spoileres leszek, szóval óvatosan.

Úgy tűnik, hogy nagyon gyenge a kreativitásunk, mert a robotos témáknál újra és újra ugyanazok a problémák jönnek elő:

  • vannak-e érzéseik, netán érzelmeik
  • veszélyesek-e
  • képesek-e az önálló döntésre

Minden robotos sztori máshova helyezi a hangsúlyokat, a két lehetséges válasz (igen, nem) közül leteszi valamelyik mellé a garast. A Westworldben az utolsó részig az tetszett, hogy volt bátorsága nem meglépni a döntést. És borzasztóan sajnálom, hogy végül csak elkenték a dolgot.

Lázadnak-e a robotok? Nem. Nemigen.

A Westworld elég hamar letisztázta, hogy a hostoknak nevezett androidoknak nincsenek érzelmeik, nincsenek érzéseik: programjuk van. Viszont az nem volt egyértelmű, hogy Dolores (Evan Rachel Wood) és Maeve (Thandie Newton) saját akaratából cselekszik-e. Ha elég energiát és időt pazaroltál arra, hogy megpróbáld a készítők által összezavart időszálakat helyrerakni, akkor mindkét verzió számos megerősítést kapott.

Hiába minden, a Westworld robotjai programozva vannak

Hiába minden, a Westworld robotjai programozva vannak

A fináléban aztán éppen kezdtem elégedett lenni, hiszen úgy tűnt, hogy Maeve sztorijával választ kapunk, a szökését ugyanúgy beleprogramozták, mint Doloresbe a loopolt önismereti kalandozást. Csakhogy a program szerint Maeve eltávozik a vonattal, nézhetjük úgy is, hogy sikeresen megszökik, de a filmben mást látunk: leszáll a vonatról és elindul megkeresni a lányát.
Na ezért kár volt. Hiszen ugyanott tartunk, mint az első epizód első percében.

Loop, ciklus, útvesztő

Ami tetszett, hogy a robotok tényleg programszerűen viselkedtek. Újraindultak és ugyanazokat a beszabályozott köröket rótták. Természetesen nekem is megvan a nagy kérdésről a saját véleményem, szerintem a robotok nem lesznek soha képesek teljesen önálló döntéshozatalra. És azt is gondolom, hogy finomságokkal soha nem lehet majd átlépni a programozásbeli tiltásokat.

Lehet, hogy nem vagyok egy mátrix dekás, de annyira azért értek a programozáshoz, hogy tudjam, ha egy valamit megtiltasz, és minden mást azon belül csinálsz, akkor az amit megtiltottál soha a büdös életben nem fog megtörténni. Éppen ezért, ha egy robotot úgy programozol, hogy nem ölhet, akkor (és itt a lényeg, az írásban, szóban is megjelenő kitétel, a ha és az akkor) nem fog tudni ölni. Az ilyen kaland-fikciókban persze beemelnek olyan dolgokat, amik ezt felülírják: érzelmek például, de ez logikailag lehetetlen. Csak akinek fogalma nincs egy program kérlelhetetlen logikájáról tudja elképzelni, hogy vannak árnyalatok, finomságok és ebből nyíló kiskapuk.
Az persze egészen más kérdés, hogy mi történik akkor, ha nem tiltod meg az ölést. Csakhogy ezekben a sztorikban ez szokott az alap lenni.

Szóval a Westworld ügyesen nyúlt hozzá a Frankenstein-komplexushoz, a robotjaik sokkal asimovibbak voltak, mint bármelyik, amit mostanság láttam. (Beleértve az Én, a robot című Asimov könyv feldolgozást is. Szégyen!)