Istraživači upozoravaju da ovakav pristup nosi i ozbiljne društvene posledice.
Iako se ljubaznost u digitalnoj komunikaciji često podrazumeva, novo istraživanje pokazuje da to možda nije uvek najefikasniji pristup kada je reč o veštačkoj inteligenciji.
Naučnici sa Univerziteta Pensilvanija (Penn State) otkrili su da je ChatGPT u pojedinim slučajevima davao tačnije odgovore kada su mu korisnici upućivali grube i direktne zahteve, u poređenju sa pristojno formulisanim pitanjima.
U okviru studije analizirano je više od 250 različitih upita, čiji je ton varirao od izrazito ljubaznog do otvoreno nepristojnog. Rezultati su pokazali da su najgrublji zahtevi doveli do tačnosti odgovora od oko 84,8 odsto, što je za približno četiri procentna poena više u odnosu na najuljudnije formulacije.
Istraživači navode da oštriji ton često dovodi do kraćih i preciznijih instrukcija, što može pomoći modelu da se bolje fokusira na sam zadatak. Međutim, ističu da to ne znači da bi korisnici trebalo namerno da budu nepristojni u komunikaciji sa AI sistemima.
Naprotiv, autori studije upozoravaju na potencijalne negativne posledice takvog ponašanja. Normalizacija grubosti u interakciji sa veštačkom inteligencijom mogla bi se preneti i na komunikaciju među ljudima, kao i da utiče na razvoj budućih AI sistema i njihovu upotrebu u obrazovanju, radu i svakodnevnom životu.















