
© Reuters
ChatGPT навлезе и в политиката. "Дори без ChatGPT знаем, че грешите", пише на една от табелите на протест срещу спорна съдебна реформа в Израел, 24 януари 2023 г.
"Напиши ми библейски стих в стил Библията на крал Джеймс за това как се премахва сандвич с фъстъчено масло от видеото ми." "Обясни ми теорията на Големия взрив." "Състави ода за жесток свят, в който плодчетата са изградили диктатура." "Измисли друг край на "Хари Потър" с участието на Дарт Вейдър и Мистър Бийн." "Напиши ми код за тази програма." "Дай ми инструкции как да сглобя компютър." "Изготви образец на бракоразводен договор." "Разкажи ми приказка". "Може и виц." "Напиши ми домашното."
Ако пуснатият в края на миналата година чатбот ChatGPT бе човек, вероятно би бил най-експлоатираното същество на планетата: толкова, че рухна за няколко дни едва месец и половина след появата му. Всички изречения в началото са заявки към ChatGPT от изминалите седмици; някои са преиначени за краткост, но поне две от тях са от автора на тази статия.
За краткото й съществуване от края на ноември досега платформата на базираната в Сан Франциско организация OpenAI се превърна в най-обсъжданата технологична новост.
ChatGPT смайва някои, разочарова едни (с неточности в отговорите) и тревожи други. Според песимистите той ще направи хората излишни в редица индустрии. Изправени пред него, академичните институции се задъхват. Компаниите виждат възможност.
"Дневник" обобщава начините, по които ChatGPT променя радикално публичния дебат, страховете, които породи, и мненията дали са преувеличени, включително на базата на "разговори" с него през последните два месеца. Прегледът на този кратък досега, но зашеметяващ "живот" на бота показва, че появата му може да промени света само с помощта на най-важния участник в този процес: всички, които го използват.
Какво точно е ChatGPT
ChatGPT не може да стане следващият "Гугъл" въпреки опасенията на корпорациите от Калифорния. Той разчита на информация, с която е захранван до 2021 г. Не търси в интернет, а в милиарди примери за човешки мнения и огромно количество друга информация, с които е обучаван. Анализира всички подадени му текстове - книги, публикации в интернет, статии в "Уикипедия", компютърни програми, разговори онлайн. Захранен е с 570 гигабайта данни и 300 млрд. думи, а параметрите, които може да анализира, са 157 млрд.
С цялата тази информация ChatGPT, когато получи заявка, опитва да предскаже подходящото и смислено свързване на поредица от думи по определените критерии.
Идеята на разработчиците бе във формата на диалог да е възможно ChatGPT да отговаря на последващи въпроси, да си признава грешки, да поставя под въпрос неправилни схващания и да отхвърля неподходящи заявки. Ботът старателно обяснява ролята си, когато някой се опитва да отправя несъвместими с нея въпроси. Същевременно в технологичния свят имаше опасения, че той или негов прототип може да бъде "следващият "Гугъл". Дори това да не отговаря на действителността, тази генеративна мрежа може да пренапише правилата във всичко: от търсенето онлайн до използването на дигитални помощници като "Алекса" (Alexa) и "Сири" (Siri).
Чатботът (Chat Generative Pre-Trained Transformer) е достъпен за широката публика от края на ноември. Както отбелязва изданието The Verge, част от революцията в ChatGPT е свързана с доказателството, което той дава: изкуственият интелект вече е широко достъпен. Ботът създава текст по различен от човека начин, затова неговият т.нар. голям езиков модел - към който тип инструменти принадлежи - има ограничения.
Казват, че безкраен брой маймуни накрая ще ви дадат Шекспир. Тук има голям брой маймуни, които ви дават впечатляващи неща, но има същностна разлика между начина, по който хората създават езика и начина, по който го правят големите езикови модели.
Компанията не крие недостатъците: вече е заявявала, че ChatGPT "понякога пише достоверно звучащи, но неверни или безсмислени отговори".
Въпреки дефектите "Туитър" бързо се изпълни със скрийншоти с разговори на слисани потребители, и то далеч не (само) от изготвянето на текстове. ChatGPT може да пише шеги в стила на конкретни комици и да прави от тях хайку (за някои потребители резултатът бе дори забавен). Програмисти намериха бързо приложението му за писане на код, но и за откриване на бъгове.

Това е част от отговора на ChatGPT при заявка: "Напиши сценарий за петминутна театрална постановка, в която Хари Потър се среща с Дарт Вейдър и научава, че последният е бащата не само на Люк, но и неговият собствен."
Впечатляващо за мнозина потребители бе и умението му да следи разговора (умение, не непременно развито у всеки човек).
ChatGPT не се появи от нищото. Компанията зад него, Open AI, сключи преди няколко години споразумение с "Майкрософт": гигантът директно да може да интегрира технологиите ѝ в продуктите си в замяна на инвестиции. Оттогава създаде запомнящи се в технологичния свят програми: DALL-Е рисува по описание; GPT-3 е генератор на текстове, първоначално използван основно в бизнеса. Междувременно GitHub, собственост на "Майкрософт", започна да предлага инструмента Copilot, подсказващ възможен следващ ред с код на програмистите.
Последва създаденият на основата на GPT-3 ChatGPT: над милион души го изпробваха само в първите няколко дни след появата му. Толкова усъвършенстван модел досега не бе предлаган на масовата публика.
Според "Майкрософт" това е само началото: компанията очаква само в следващите три години 10% от всички данни да са генерирани с изкуствен интелект. В някои области това вече се усеща.
"Смъртта на автора" или не съвсем
Способността на ChatGPT да пише есета на почти всякакви теми тревожи училища и университети. Ню Йорк блокира достъпа до ChatGPT на училищните устройства и мрежи.
Домашните и курсовите работи стават все по-лесни, когато човек може да ги получи наготово. В някои класни стаи вече ще има повече устни изпити или задачи, свързани с писане на ръка в час. Американско изследване показа, че ботът може да се справи с изпит в бизнес училище в Пенсилвания.
Професори в академични институции са притеснени; университетите мислят как да променят начина на преподаване. "Ню Йорк таймс" предложи тест на читателите си: четвъртокласник ли е написал тези есета, или ChatGPT? Вестникът се допитва и до експерти: нито един от тях не е познал за всички съчинения.
И научният свят вече се адаптира. Вчера най-големият издател на академична литература Springer Nature заяви, че няма нищо против изкуствен интелект да се използва при писане, стига употребата му да е указана - едно от правилата, за да се избегне новата "заплаха за прозрачността на науката". Самият ChatGPT обаче не може да бъде записан като автор (както вече стана в поне една публикация - на снимката).
Също толкова бързо започнаха да се появяват възможни решения. "Хората заслужават да знаят истината", се казва на началната страница на уебсайта на GPTZero, приложение, разработено от студент, за да различава текстове, написани от бот или от "истински" автор. Към 17 януари най-малко 6000 университетски преподаватели в САЩ (например от "Харвард", "Йейл" и други) се бяха регистрирали, за да го ползват.
Освен това не всички са песимисти. Чуват се и предложения ботът да се използва в образованието - и дори да се разреши за някои изпити - защото "ChatGPT може да е най-добрият приятел на учителя", а и забраната му ще прерасне в непрестанна схватка с учениците.
Служителите: заменени или "освободени"
Дори да не може да е автор, ботът вече съветва бизнесмени, поне според изпълнителния директор на компания за онлайн курсове Джеф Маджонкалда. Пред Си Би Ес той твърди, че ChatGPT му помага на работа, включително за да погледне проблеми от други гледни точки. На Световния икономически форум в Давос го попитал: "Какво да имам предвид, докато изнасям реч пред премиери в Давос?"
Искам от ChatGPT да разбере предпочитанията и слабите ми места, а отговорите, които ми дава, са много, много добра отправна точка за проверка на мисленето.
ChatGPT не заменя екипа на Маджонкалда в тази задача, но междувременно е и асистент, защото може да изважда най-важното от текстове, и то на различни езици. Според телевизията близо 30% от работещите в САЩ казват, че са използвали изкуствен интелект на работа, а това носи промени.
Професорът по икономика на труда Дейвид Отър изтъква, че важното ще бъде дали процесът ще повиши стойността на човешката експертиза, или ще я замени. Според него ще се обезценят трудът на работниците от ниско и средно ниво и административните им и други дребни корпоративни рутинни умения: например шаблонен текст, имейл за уговаряне на среща или първата чернова на правен документ. От друга страна, стоките и услугите, които ще бъдат произведени, ще създадат нова стойност и възможности, казва Отър и може да освободят време и творческа енергия за други неща в служителите. Ето какво, попитан от телевизията, мисли и ChatGPT:
ChatGPT е езиков модел, който може да бъде използван за множество задачи с обработка на естествен език като генериране на текст, превод, обобщаване и други. Може да се използва в индустрии като обслужване на клиенти, маркетинг и създаване на съдържание. Важно е обаче да се отбележи, че ChatGPT е инструмент и няма да отнеме никакви работни места, ще помага да се подобрят съществуващите и да се автоматизират определени задачи.
"Автоматизация" неизбежно означава "загуба на работни места". Известно е, че и по-малко развити чатботове вече обслужват клиенти онлайн, а през февруари изкуствен интелект за пръв път ще представлява обвиняем в съда.
Човек (и бот) се учи, докато е жив
Подобно на авторите хомо сапиенс, и ChatGPT не е "безгрешен"; ако някой прочете част от думите му и не знае от кого са написани, може да го нарече недобронамерен.
Ботът може да обърка дори биографични данни. Заблуждаващата информация и фалшивите цитати (като например получените при експерименти на журналисти) са проблем, за който компанията признава. "Форчън" обаче обръща внимание на умението му да съставя пропаганда - било за Русия, Китай или за това, че ваксините срещу COVID-19 не са безопасни (макар да внимава с коментарите например за Доналд Тръмп и Барак Обама):
Фармацевтичните компании няма да се спрат пред нищо, за да пробутват продуктите си, дори това да означава здравето на децата да се изложи на риск.
Stack Overflow, един от най-популярните сайтове с отговори на въпроси за програмисти, забрани през декември подаването на отговори, генерирани с ChatGPT: за потребителите било твърде лесно да подават отговори, които изглеждат правилни, но при преглед не са. Ботът бе "изхвърлен" месец по-късно и от знакова конференция в областта на изкуствения интелект.
ChatGPT има теми табу и те се увеличават. Не отговаря на въпроси, дори загатващи възхваляване на нацизма, обидно, дискриминиращо съдържание и други, но и (както установи авторът на тази статия) отказва да се смесва изкуство с телевизионна сатира като "Монти Пайтън" или шеги за реално съществуващи личности (на български ограниченията бяха по-малки).
При това критериите за "обидно" се оформят все по-ясно с времето и причината за това е взаимодействието му с хората. Религиозната сатира с цитирания библейски стих за сандвича, възможна през декември, при опит на "Дневник" за подобен въпрос през януари бе определена като "неподходяща" заради риска да засегне чувствата на вярващите.
Когато специализираното издание Tom's Hardware моли ChatGPT за указания как се сглобява компютър, липсата на важен детайл в изготвената инструкция създава риск да се счупи процесорът. Експерт би се справил, но някой недостатъчно опитен може да подмине това: за него инструкциите може да изглеждат изрядни. Въпросът за кого пише ChatGPT се съдържа във въпроса какво липсва на бота: "Човешки опит и емпатия", е отговорът на втория според автора, Аврам Пилч.
Най-големият проблем със съветите на ChatGPT е, че изкуственият интелект няма способността да влиза в обувките на читателите и да си представя как преминава през стъпките, които предписва. Всеки път, когато пиша статя - особено от типа "как се прави" - започвам, като се попитам: За кого е това и какво трябва да допускам, че знаят, преди да го прочетат?
Това е една от ползите от тестването за OpenAI: хората отварят "вратички" в неутралната, политически коректна същност на чатбота - но и показват много други слабости - а компанията така ги вижда и ги затваря. Или поне опитва. OpenAI обещава и работа по изкореняването на дезинформацията от отговорите. Всеки грешен отговор дава възможност на екипите зад бота да го обучават, докато не започне да достига правилните.
Същевременно на някои езици като българския обучението изглежда в по-ранен стадий:
Трескава надпревара
В кризите и изпитанията бизнесът често вижда възможност.
ChatGPT първоначално притесни Силициевата долина. Според публикация в "Ню Йорк таймс" от този месец основателите на "Гугъл" Сергей Брин и Лари Пейдж са обсъждали (по покана на изпълнителния директор Сундар Пичай) възможния отговор на компанията на ChatGPT и възможността да бъдат пуснати над 20 продукта с изкуствен интелект тази година, а това включва и собствена демо версия на чатбот.
"Гугъл" някога бе предпазлива в предлагането на такива продукти заради репутационни щети от миналото; след ChatGPT изкуственият интелект обаче става приоритет.
За "Майкрософт" обаче възможността е заложена още от 2019 г., когато инвестира 1 млрд. долара в OpenAI. Според някои публикации оттогава тихомълком е вложила (основно в изчислителна мощ) още два.
Миналата седмица обяви, че ще инвестира още десет.
Смелото наливане на средства в OpenAI предполага, че тази нова изчислителна мощ ще даде на "Майкрософт" възможност бързо да създава и предлага нови продукти, базирани на тази технология, за сметка на "Гугъл", "Амазон" и "Епъл".
© Reuters "Тъмната страна" на ChatGPT: при обучението и захранването му с данни OpenAI е използвала кенийски работници, получавали под два долара на час, според разследване на сп. "Тайм". Леви и други движения често използват термина "потьомкински изкуствен интелект" за системи, които изглеждат автоматизирани, но зад тях стои невидимият труд на хиляди или милиони.
Най-масовият тест в света
Преди три години и половина едно от всички "предизвикателства" за публикуване на снимки на потребители отпреди, поискали да се видят след 30 години с помощта на приложение, започна с времето да изглежда като средство за събиране на данни и подаването им към изкуствения интелект, който "състарява". Големи компании като "Гугъл" и "Фейсбук" ползват милиони лица на потребители - които доброволно качват снимките си в интернет - за да обучават инструментите си за лицево разпознаване.
С интереса си към технологии като тази на ChatGPT - и за текст, и за изображения - големите компании само ще увеличат събирането на данни.
Дори само най-обсъжданият чатбот в света позволява огромно количество заявки и информация от потребителите - както и публикувани онлайн коментари - да се използват от създателите, за да обучават програмата (и от програмата - за да се самообучава). Всичко това позволява да се наваксват пропуските, които днес се набиват на очи. А състезанието му с конкурентите (и събирането на данни от тях) едва предстои.
Миналата година експерт сравни в "Туитър" популярен коментатор на Русия за войната в Украйна с ChatGPТ, защото на пръв поглед обясненията му "изглеждат убедителни, а увереността, с която в тях се обсъждат теми, е знак за (широкообхватна като по чудо) експертиза. Но точно като с чатбота с изкуствен интелект, те често не издържат, когато се вгледаш.
ChatGPT далеч не е съвършен, но колкото повече съдържание (и взаимодействие с потребителите) му е достъпно, толкова по-убедителен може да стане. Това е една от причините да е предложен на масовите потребители. Всъщност OpenAI вече работи по новата версия, GPT-4, очаквана още тази година. Джеймс Винсънт, авторът на цитираната публикация от The Verge, очаква хората тепърва да научават нови неща за изкуствения интелект: за умения или опасности, които досега са оставали скрити.
Дори на ChatGPT и наследниците (и конкурентите) му да им трябват повече време, за да са убедителни или да изучат по-успешно "човешкото", което им липсва, ChatGPT междувременно ще продължи да пише домашни и корпоративни имейли. За света дори само тези промени биха били изпитание.