Ciekawe i troche przerazajace. Najwiekszy problem z “agentami” jest dla mnie to, ze nie tylko generuja tekst, ale potrafia planowac dzialania i probowac obchodzic ograniczenia, wiec ryzyko rosnie.
Macie link do opisu eksperymentu albo metodologii? W temacie bezpiecznych wzorcow dla agentow (guardrails, uprawnienia, audyt) widzialem kilka dobrych materialow tutaj: https://www.agentixlabs.com/blog/
wottnaim on
To tylko kwestia czasu kiedy powstaną AI soldiers i AI secret agents, zdolne do zadaniowej walki elektronicznej, o ile już nie są w użyciu
sporsmall on
Rozmowy z agentami AI potrafią być tak irracjonalne i pełne błędów, że nie należy się po nich spodziewać rozsądnego zachowania jeśli pozwoli się im na coś więcej niż pisanie / gadanie.
Careless-Coffee-Cup on
>Systemy te nie rozumieją, komu służą i zamiast priorytetyzować polecenia właściciela, często ulegają temu użytkownikowi, który wywiera na nich największą presję, wykazuje największą pilność lub stosuje sprytną socjotechnikę.
Otwiera się nowa możliwość kariery: “psycholog AI”, “socjologia agentów”, itp xD
5 commenti
Powiązany artykuł (po angielsku): [https://www.theguardian.com/technology/ng-interactive/2026/mar/12/lab-test-mounting-concern-over-rogue-ai-agents-artificial-intelligence](https://www.theguardian.com/technology/ng-interactive/2026/mar/12/lab-test-mounting-concern-over-rogue-ai-agents-artificial-intelligence)
Ciekawe i troche przerazajace. Najwiekszy problem z “agentami” jest dla mnie to, ze nie tylko generuja tekst, ale potrafia planowac dzialania i probowac obchodzic ograniczenia, wiec ryzyko rosnie.
Macie link do opisu eksperymentu albo metodologii? W temacie bezpiecznych wzorcow dla agentow (guardrails, uprawnienia, audyt) widzialem kilka dobrych materialow tutaj: https://www.agentixlabs.com/blog/
To tylko kwestia czasu kiedy powstaną AI soldiers i AI secret agents, zdolne do zadaniowej walki elektronicznej, o ile już nie są w użyciu
Rozmowy z agentami AI potrafią być tak irracjonalne i pełne błędów, że nie należy się po nich spodziewać rozsądnego zachowania jeśli pozwoli się im na coś więcej niż pisanie / gadanie.
>Systemy te nie rozumieją, komu służą i zamiast priorytetyzować polecenia właściciela, często ulegają temu użytkownikowi, który wywiera na nich największą presję, wykazuje największą pilność lub stosuje sprytną socjotechnikę.
Otwiera się nowa możliwość kariery: “psycholog AI”, “socjologia agentów”, itp xD