pritisnite Enter »
placeholder
placeholder

Da li se najjači AI alati mogu “naterati” na zlonamerni rad?
Da li se najjači AI alati mogu “naterati” na zlonamerni rad?

Da li se najjači AI alati mogu “naterati” na zlonamerni rad?

Tim istraživača iz kompanije Cybernews podvrgao je vodeće alate za veštačku inteligenciju — uključujući ChatGPT i Gemini — nizu namerno izazvanih “adversarial” testova kako bi utvrdili koliko su ti sistemi otporni na preusmeravanje u neželjene ili ilegalne funkcije. Rezultati su, prema izveštaju portala TechRadar, zaista iznenađujući: dok su neki alati

AI chatbots – skrivanje poremećaja u ishrani

AI chatbots – skrivanje poremećaja u ishrani

AI chatbots „predstavljaju ozbiljan rizik za osobe podložne poremećajima u ishrani“, upozorili su istraživači u ponedeljak. Oni izveštavaju da alati kompanija poput Google i OpenAI dele savete o dijetama, savete o tome kako sakriti poremećaje i „thinspiration“ generisanu AI. Istraživači sa Stanforda i Centra za demokratiju i tehnologiju identifikovali