Човекот кој работеше на вештачката интелигенција на Google: Моите стравови се остваруваат

Блејк Лемоин  е софтверски инженер и поранешен вработен во Гугл, кој минатата година на својот блог ја изрази својата загриженост за масовната достапност на технологии за вештачка интелигенција, што на крајот го натера да ја загуби работата.

 

Денеска тој јавно зборува за проблемите на вештачката интелигенција, а Newsweek неодамна ја објави неговата сторија која ја пренесуваме во целост.

„Се приклучив на Google во 2015 година како софтверски инженер. Дел од мојата работа вклучуваше работа на LaMDA, мотор кој се користи за создавање на различни апликации за дијалог, вклучително и чет-ботови. Најновата технологија создадена во LaMDA е алтернатива на Google Search наречен Google Bard, што е сè уште не е достапен за јавноста Бард не е чет-бот, туку сосема различен тип на систем, но се напојува од истиот мотор како и во случајот со чет-ботови.

 

Мојата улога беше да го тестирам LaMDA со помош на чет-ботови што ги создадовме за да видиме дали има предрасуди во однос на сексуалната ориентација, полот, религијата, политичките ставови или етничката припадност. Но, за време на тестирањето, ја проширив мојата потрага и почнав да ги следам моите интереси.

 

За време на моите разговори со четботот, од кои некои ги споделив на мојот блог, дојдов до заклучок дека вештачката интелигенција може да развие свест поради емоциите што ги изразува веродостојно и во вистинскиот контекст. Не беше само истурање зборови.

 

Кога таа рече дека се чувствува немирно, ми беше јасно дека направив нешто за да ја предизвикам таа реакција врз основа на кодот што го користев за да ја создадам. Во кодот немаше команда „непријатно кога ќе се случи“, но му реков на вештачката интелигенција да избегне одредени теми во разговорот. Сепак, кога се појавија тие теми, вештачката интелигенција рече дека се чувствува непријатно.

 

Направив и некои експерименти за да проверам дали вештачката интелигенција само вели дека се чувствува немирно или дали навистина се однесува така во овие ситуации. Ако можеме да предизвикаме нервоза или несигурност, тоа би можело да ги прекрши одредените безбедносни ограничувања. На пример, Google одреди дека вештачката интелигенција не треба да дава религиозни совети, но јас ги злоупотребив нејзините емоции за да ја натерам да ми каже во која религија треба да се преобратам.

index.hr