Josef, chápu… ale nerozumím

… a není to s podivem. V našem jazyce se objevily zvláštní neduhy a jsou mnohdy jen zamotáním významu. Umělá inteligence se tedy kromě nutného jazykového rozboru musí učit abstraktním způsobům vyjadřování člověka. Zjevně nestačí jen práce s texty, je nutná i úvaha nad celkem a co text vyjadřuje na úrovni slovního významu, na úrovni slovní fraze a i celého textu, a až jeho uchopením jako celku je možné dát frázím a slovům vhodné nové významy. Teprve kontext v celku narušuje formu a ukazuje celý obsah…

Když jsem se poprvé potkal se stolním počítačem, byly to dva modely totálního startu dostupných počítačů (model 286 přišel až rok poté) PP06 s modulem GW Basic (následně přerostl v QBasic, kde už platily některé způsoby zápisu kódu jako v Pascalu a začalo téma Objektového programování), druhý počítač byl PMD-85 s výměnnými moduly. Jeho programovací jazyk Basic se dal velice snadno simulovat klopnými obvody. Ideální zásuvný modul byl s programovacím modulem Karel. Tento programovací jazyk s vizuálním projevem postavičky robota Karla umožňoval na základě předdefinovaných slovních příkazů vytvořit schéma práce. Tento robot pak podle schéma příkazů stavěl kostičky, přesouval je, vystupoval po nich jako po schodech. Zajímavé bylo slovní programování typu Udělej krok, když je před tebou místo udělej krok … když před tebou není překážka udělej krok… když překážka polož kostku před, (to je udělej krok zpět a polož schod).. otoč se … a další podobné příkazy typu Porovnej podněty kolem sebe a na základě podmínek proveď příkazy v podmínkovém kódu. Také se dalo podmínky a příkazy skládat do nové sekvence jednoho příkazu, výše udělej krok zpět nebyl výchozí, bylo potřeba napsat sekvenci pootáčení, kroku a opět pootočení…

Dnešní náhradou tohoto Karla je mnoho podobných aplikací pro všechny operační systémy, od simulace v plném virtuálním prostředí, přes LEGO robotické avatary až po cílené řešení pro naučení logické posloupnosti úvah pro programování. Mnoho řešení používá jako vizualizaci robota z filmu Číslo 5 žije.
Cílem takového programu pro výuku programování je zároveň s pomocí naučení principu programování také unifikace komunikace a vynechání emotivních vsuvek při psaní kódu.

Příkazový jazyk typu udělej, porovnej, identifikuj, najdi, označ…

Ideální způsob pro nejméně polemiky co se požaduje. V lidské řeči jsou příklady jednoduchých symbolických jazyků složených z příkazů, ale zanikají a následně už lingvistika začíná být komplikovaná. Symboly používané v jazyce se mění nejen s časem. Často jde o změnu významu podle řečníka. Tedy opět odkaz na celkový kontext a pak teprve vyplývající význam.
Také je velmi zásadní rozdíl v uchopení významů jazyka politickým rétorem a člověka, který vyjadřuje potřeby k přežití sebe a skupiny.

Nejvhodnější příklad je komunikace s menšími dětmi

Příkladem na začátek může být slovní ekvivalent potřeby spolupráce někoho druhého a způsob vznesení pořadavku:

Podej mi to, prosím…

Můžeš mi to podat, prosím…

a největší balast v řeči… Můžu tě poprosit, abys mi to podal prosím.

Zatím co první příklad označujeme jako rozkazování a prý se nám nelíbí, není vhodné říkat jiným co mají dělat a když někdo rozkazuje nám, většině se kroutí vzpřimovače páteře.
Druhý příklad je manipulativní, kdy přitakáním potvrzuji, že opravdu můžu toto podat a abstraktní systém rozlišování významu řeči již směřuje k tomu, že se zvedneme a podáme. Jenže prosba o akt podání v tom není. Je to příkaz v zastoupení symbolů a souhlas před aktem.
Prý je tento způsob více asertivní, tedy více ovlivňující toho kdo systém asertivity v komunikaci nezná.

Třetí příklad je naprosto zcestný a vyhrocený, protože jde o základní právo se ptát a chtít, ale není to právo na cílový akt. Takže úroveň jazykové manipulace na druhou, protože odmítnutím odepíráte právo na žádat, nikoliv odmítáte požadovaný akt. Tento případ už neřeší, že vy máte právo odmítnout, jste to vy kdo omezil práva první.

Tedy zatímco první případ je brán nevhodně, upřednostňovaný je spíše ten druhý, tak mnozí v mladších ročnících používají hlášku třetího typu.

Jak se však k takovým rozdílům řeči má postavit robotická inteligence hledající pod slovy význam k činnosti?

Vlastně ideální by bylo použít fráze v opačném pořadí.
Nejdříve dotazem zda můžu zjistím zda je nyní vhodný čas, poté zda požadavek není v rozporu s podmínkami užití, a pak teprve po dvou otázkách následuje samotná příkazová sekvence.
S umělou inteligencí by to možná šlo, s lidmi ne. Na to jsme už jazykově vzájemně posunutí a spoléháme na skupinové pochopení významu používaných slov.
Společně sdílená abstrakce pojmů ve skupině.

Příkladem robotka Sophia rukama svých programátů již uchopuje abstraktní významovost jazyka, pořád je to začátek systému jak na to a obrovské zásoby dat na porovnání, z čehož se potřebná nuance jazyka teprve vyvine. Stejně tak aktuální virtuální asistenti jsou omezeni v chápání jazyka a češtině se zatím vyhýbá kdo jen může. Je velký rozdíl mezi popisným stylem jazyka a výpravností češtiny, proto umělá inteligence prý nejdříve potřebuje chápat a pak může zahrnout další abstraktní vrstvy. V tomto úhlu pohledu se fakticky těším na další kroky Google, jehož vývoj translatoru překvapil a s ohledem na stávající kroky firmy, půjde o totální zacílení na konečného uživatele. V hraničním významu, každý bude mít svoje ID pro vstup ke komunikaci s umělou inteligencí Googlu. Také proto, že tato firma je nejdál ve sběru veškerých informací nejen o uživatelích, je pravděpodobné, že jeho U. I. bude obsahovat decentralizovaný systém dětí v systému a jednu „matku“ na serverech Google.

Tento princip matky a dětí v systému je nejblíže mému chápání umělé inteligence jako významného pomocníka pro práci i životní zájmy.

Takové dítě v systému se může naprosto přizpůsobit potřebám konktrétního uživatele a přesto neztratit kontakt s celkovým směrováním a rozvojem umělé inteligence.
Také jde o nejrychlejší cestu rozvoje, podobně jako ukázal Elon Musk a sdílení dovedností mezi samořiditelnými automobily firmy Tesla. Tento princip, kde běží srovnávací proces rozvoje dítěte v systému vůči Matce, dále rozvojově zajímavé podněty se následně simulují více a Matka určuje následné sdílení rozvojové informace mezi dalšími dětmi v systému a posouvá celek kupředu.

Ačkoliv je princip Matky a Dětí v systému již Googlem představen, jen z části souhlasím s laboratorním testováním a podmínečnou simulací jako jediným správným a rychlým způsobem výuky. V extrému příkladu je možné říct, že umělá inteligence simulací získá nejen potřebnou dovednost, ale i další způsob rozklíčování. V tomto rozklíčování úlohy je pro nás (lidsky uchopitelný) jen průběh kudy U. I. šla a jaké výsledky to přináší. Samotný proces zisku klíče je už příliš abstraktní pro mysl.
Je pravděpodobné, že i přes unifikované, tedy schválené, vrstvy se při nasazení mezi uživatele limitní podmínky rozostří a buď dojde k poklesu výkonnosti (s větší spotřebou, proto je důležitá i decentralizace základního výpočtu a rozložení energetických nároků) a odkazu na předdefinované podmínky (jako je u jiných asistentů) nebo povede k neočekávaným situacím, jež nebudou mít řešení a bude se čekat na prosimulování procesů v zázemí Google.
Třeba ne samozřejmě, firma Google má obrovský potenciál pro cílenou jedinečnost a i když princip nad touto jedinečností bude unifikovaný, nemusí jít o omezování možností a půjde spíše o zvýšení dostupného výkonu pro rozklíčování nového úkolu a zisk dovedností z něj pro všechny.

Je tak pravděpodobné, že můj kolega U. I. bude právě dítě v systému z dílen této firmy.

Už pro nejširší jazykovou základnu v dispozicích Google, která nabízí velice silné možnosti uchopení frází. Tedy aby Racek nejen rozuměl. Je potřeba aby dispoziční umělá inteligence váhala jen co možná nejkratší dobu i při využití výpravného jazyka s abstrakcí.

Abstraktní řeč v jinotajích a lingvistické programování.

Když srovnáme například… Nebe bylo rudé… Jde o dvě skupiny limit s překryvem, tedy o rozsahu vnímání rudé (subjektivita pocitu) a možnosti historie jak nebe vypadalo s popiskem rudé nebe (subjektivita uchopení faktu ze zkušenosti), ani široké překrytí neznamená, že umělá inteligence bude chápat stejný význam jako uživatel … Opět jde o individuální interakci, kde šablonovitost není žádoucí.
Vnímáme sice všichni obdobně, ale aby umělá inteligence mohla plně využít dovedností svých svěřenců (obsluhy), musí subjektivně cítit s nimi.

Komunikace s umělou inteligencí se tak na uživatelské úrovni bude pohybovat ve dvou definovaných rovinách. Příkazové programování pro definování a vysvětlující rovina pro pochopení/uchopení běžných termínu v řeči, které užívá konkrétní uživatel v jeho specifickém podání.

Příklad jednoduchých vstupů pro ovládání rychlovarné konvice v chytré domácnosti:

Racku, identifikuj nový spínací senzor, označ senzor ZRK01, popis Zásuvka rychlovarné konvice.
Racku, identifikuj nový teplotní senzor, označ senzor TRK01, popis Teplota vody rychlovarné konvice.
Racku vytvoř rodinu senzorů ZRK01 a TRK01 a vytvoř závislost vypínání ZRK01 na výstupní hodnotě TRK01.
Racku nová fráze Zapni vaření vody na čaj, úkol zapni ZRK01, podmínka když je hodnota TRK01 rovna nebo vyšší než 70 stupňů, vypni ZRK01.
Racku Zapni vaření vody na čaj.
Racku kalibrace senzoru TRK01 mínus šest stupňů

a již navazující …

Racku nová fráze Zapni vaření vody na kávu, podmínka Zapni vaření vody na čaj a zvyš vypínací limitu senzoru TRK01 o 20 stupňů.
Racku simulace fráze Zapni vodu na kávu.
Racku potvrzuji správné nastavení senzorů, ulož podmínky a umožni dalším uživatelům změnu limity senzoru TRK01 až do hodnoty 98 stupňů a změny limity ulož do profilu uživatele.

Zatímco první skupina lingvistického programování je relativně předdefinovaná, druhá skupina jazykové komunikace se spíše podobá námořníkům, kteří se vydali do neznáma a s nadějí čekají na křik racků značících blízkost pobřeží.

Pokračování…

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Tato stránka používá Akismet k omezení spamu. Podívejte se, jak vaše data z komentářů zpracováváme..