Můj život s Botem – 04 – Když se AI dívá
Ve druhé části jsem citoval Nathana z roku 2023 a jeho oprávněné obavy z přístupu uživatelů na všude přítomnou AI. V ulicích jednoznačně nepříjemné, v práci podle kontextu, ale soukromě jde o vzájemnou vyváženost. Ve firemním prostředí o podmínkách využití, a nejen v ulicích mluvíme o podmínkách na hranici zneužití.
Když se AI dívá
Základem dnešní komunikace je právě komunikace, a to mezi platformami. Načíst si počasí a sdílet jej na stránkách, to je běžný widget, ale co když chcete svůj pohled na tyto výsledky? Co když chcete zjistit počasí a doporučit práce na zahradě čtenářům vašeho webzinu? #SaaSHub #GardenAssistant.
Je to snadné!
Ale co když vypustíte rovnou Lva?
V momentě, kdy AI začne nahlížet přímo do API, otevírá se úplně nový svět – svět, který je plný možností i nebezpečí. Byl jsem uprostřed jedné z těch zvláštních nálad, kdy zkoumám, jak by se některé věci daly posunout dál. I když musím přiznat, že některá dál jsou spíše hlouběji, a to hlouběji není marast, ale přímo pád do díry… A najednou, přichází moment, kdy mi to došlo a kdy se AI začne podívat více hlouběji a mnohdy hloupěji, z nedostatku instrukcí, samozřejmě 😉.
Při potřebě data miningu a reflexi dat by mohlo být základem kilometrové CSV odkazující na další kilometry řádků v mnoha dalších CSV a mnoho variabilních odkazů na metadata, alternativní metadata a odkazy na soubory nebo obrázky. V tomto procesu najít určité recidivní prvky, popsat je, využít je a pomocí jejich hodnoty data selektovat.
Jenže dneska už tyto podmínky parametrizace přebírá AI a opravdu může být zlatokopeckým prostředkem v harvestu dat. Jen je nutné se dobře ptát. Kde však je hranice „dobře“?
Když se AI dívá – API
Je snadné si představit AI, byť například platformu GPT, nebo všudypřítomný Copilot, jak analyzuje, podle zadání hodnotí a poměrně otevřeně předává informace tazateli.
Kupříkladu zkuste si analyzovat sadu svých fotografií, koláž z profilu sociálních sítí, se zadávacím promptem, který přidá specifické kroky do analytiky a rozšíří AI pohled. Váš prompt může obsahovat například tato slova analyzuj tuto fotku, posuď mě na fotce, zohledni reflexní zóny v obličeji a predikuj mou duševní pohodu. Zkus najit vzorec chování, který by tohoto člověka mohl omezovat, k čemuž jako podpůrný pohled využij držení těla.
Pro vysvětlení, prompt není úplný, záměrně střídám mě a člověka, protože jakmile máte fotku, AI je to jedno a chci naznačit že: Soukromí v tomto ohledu AI rozhodně nerespektuje.
Když AI vidí do API, co se vlastně děje?
Představte si, že přes API zavoláte nějakou službu. Například, požádáte AI, aby analyzovala text z LinkedInu, porovnala jej s historickými daty, přidala specifický kontext a vrátila vám výsledek. To by byl normální způsob, jakým se technologie používají. Ale co když se to začne měnit, co když AI přebírá roli, která by měla být jasně definována? Když AI nevidí správně, může vytvořit neuvěřitelné výsledky, které mohou mít nejen úspěch, ale i nebezpečné důsledky.
Při pokusu o analýzu textu pro německý trh mi AI navrhla předělávky tetování, které by bylo považováno za dost kontroverzní, ale souvisí s veřejně dostupnými texty podporující tuto subjektivizaci sdělení. A to je jen začátek. Když je AI schopná nahlédnout přímo do API a na základě těchto dat se „učit“ a predikovat, co a jak bude fungovat, může se snadno dostat do prostoru, který je eticky a právně šedý.
Což je pouze důsledkem nedokonalého použití AI, a nebo o záměrném zneužití AI.
Co se stane, když AI nefunguje správně?
Ve chvíli nedostatečné instrukce pro pohled AI na data, AI nepochopí data správně a může dojít k velmi konkrétním problémům. GPT může generovat nápady v procesu oslovování klientů, a MS Copilot ve firemní verzi jde ještě dál. To není žádné šetření uživatele – není žádný prostor pro „neúmyslné chybování“. Systém M365 je postavený na efektivitě a přesnosti.
Ale co když, stejně jako já, hledáte chyby při dotazování? Co když se zeptáte záměrně špatně nebo se zaměříte na nesprávný úhel pohledu? MS Copilot vám pak ukáže věci, které jste nechtěli vidět. Ptát se na věci jako například analyzuj mi přínos jednotlivců v tomto emailovém vlákně s ohledem na… je naprosto nebezpečné!
Je tu však mnohem fascinující věc, jakmile se začnete ptát správně, začne vám AI skutečně fungovat jako nástroj pro hluboké analýzy. Když ji správně nasměrujete, začne predikovat vzorce chování a najde vzorce, které by vám jinak mohly uniknout.
A v určitém momentu překoná svou hranici díky nárůstu objemu informací ve svém divergentním pohledu myšlení.
Etika a nebezpečí: AI a její role v rozhodování
Když se AI dívá do API, musí mít jasné instrukce, jinak AI může udělat přesně to, co nechcete, aby udělala. Když se podíváme na aplikace jako Make.com nebo Power Apps, kde se skládají pracovní toky od e-mailu po analytické procesy, pokud se AI ptáte správně, může mít neuvěřitelný vliv na rozhodnutí, které by bylo jinak podmíněno subjektivními faktory. Nebo také lze říct pomoci se subjektivně rozhodnout z pohledu AI.
Práce v bublině sociálních sítí
V našem prvotním příkladu s Nathanem ukazujeme na snadnost analýzy profilu uživatele, hlavně pokud je veřejný, Tato data subjektivizovat do různých pohledů, nechat zohlednit AI tyto pohledy na analýzu dat o uživateli, porovnat konzistenci, tonalitu, zacílení… a porovnat s dalšími veřejnými daty a tuto selekci porovnávat dál s veřejnými daty… a pomoci získat silné portfolio pro AI, aby se do takové bubliny stylizovala. AI následně přesně vyhledává konkrétní data, zcela konkrétně funguje jako komentátor, lovec a řekněme si rovnou i Dravec. AI je to jedno. Vy máte přístup k datům, nebo kdokoliv jiný za vás, a tak přebíráte odpovědnost za AI. Nikoliv obráceně, pokud k tomu AI nemá dříve jasné instrukce odpovědnosti. Ale takovou AI nemáme, zatím je naše AI pořád spíše o komplexnosti slov a čím dál tím více i komplexnosti obsahu, pořád však není zodpovědná za nás, a to ani nechceme 😉
Když se AI dívá do API a začíná se sama učit, znamená to, že musíme začít přemýšlet o tom, jak správně nasměrovat její schopnosti. Bez správné orientace se může dostat na nebezpečnou cestu. A jako vždy, musíme zajistit, že AI nebude mít volnou ruku tam, kde to může vést k neetickým nebo nelegálním závěrům.
Když se AI dívá do API, mějte to pod kontrolou
Pokud jde o práci s AI, klíčové je to, že musí být správně řízená a nastavena. Bez správného rámce se AI může vydat neznámými směry, které mohou být nejen riskantní, ale i nebezpečné. Takže když se AI dívá do API, dbejte na to, aby její oči byly nasměrovány správně.
Například zmíněný Garden assistant by mohl zohlednit vaše veřejné fotografie ze zahrady, posoudit váš styl péče, subjektivizovat tento styl v pohledu na potřebnou péči o přírodu kolem vás a s ohledem na váš pracovní kalendář naplánovat kroky údržby zahrady i kdyby to mělo být třeba jen naplnit ptačí krmítko a vás dostat od obrazovky 😉