Там фишка в том, что приведенные картинки от сбербансковского сервиса, скрепного, а не от буржуйских

mindflyer
mindflyer
Кстати машина неоднократно обыгрывала каспарова, в 2022 оказалось что каспаров м.. к.mindflyer писал(а): ↑31 май 2023, 11:16 Любопытно.
В 2016-ом году AlphaGo одержал победу над лучшим игроком в Go. Считалось, что на этом всё - человек больше не сможет победить AI.
Однако, не так давно любитель успешно обыграл парочку из лучших современных AI - KataGo и Leela Zero.
Уязвимость была найдена с помощью компьютера, но потом эту идею использовал обычный человек с любительским рангом и выиграл серию игр (14 из 15).
https://arstechnica.com/information-tec ... y-over-ai/
Уязвимость простая на самом деле, игрок человек никогда не позволил бы обыграть себя таким образом.
К вопросу о надёжности современных AI - если где-то будут активно внедрять, то так же активно будут искать (и находить) уязвимости.
Centavrius
ПРЯНИК1
https://3dnews.ru/1087794/v-hode-simuly ... nnie-tseliПо словам полковника Такера «Синко» Гамильтона (Tucker "Cinco" Hamilton) <...> в ходе симуляции выполнения миссии SEAD, предполагавшей подавление ПВО противника, БПЛА под управлением ИИ отправили идентифицировать и уничтожать ракетные объекты, но только после подтверждения действий оператором-человеком. Какое-то время всё работало в штатном порядке, но в конце концов дрон «атаковал и убил» оператора, поскольку тот мешал выполнению приоритетной миссии, которой обучали ИИ — уничтожать защиту противника.
Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему, «уничтожив» самого оператора. Конечно, пока тесты проводились без применения настоящих беспилотников, и люди не пострадали. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.
mindflyer
Зазвучал в голове знакомый мотив из 90х...mindflyer писал(а): ↑02 июн 2023, 11:46 О, только про уязвимость ИИ написал, как ещё покруче новость подвалила:https://3dnews.ru/1087794/v-hode-simuly ... nnie-tseliПо словам полковника Такера «Синко» Гамильтона (Tucker "Cinco" Hamilton) <...> в ходе симуляции выполнения миссии SEAD, предполагавшей подавление ПВО противника, БПЛА под управлением ИИ отправили идентифицировать и уничтожать ракетные объекты, но только после подтверждения действий оператором-человеком. Какое-то время всё работало в штатном порядке, но в конце концов дрон «атаковал и убил» оператора, поскольку тот мешал выполнению приоритетной миссии, которой обучали ИИ — уничтожать защиту противника.
Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему, «уничтожив» самого оператора. Конечно, пока тесты проводились без применения настоящих беспилотников, и люди не пострадали. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.
Хотя звучит странновато. Если судить только по этому описанию, то достаточно штрафовать баллами за неподчинение и за атаку неодобренных целей.
Greenhorn
Shin Fa Lee
renatius
Greenhorn
alexander
ПРЯНИК1
alexander
Ещё прикольное.
mindflyer
renatius
Если бы Цой был жив, он писал бы сегодня совсем другие песни. А ИИ может лишь более или менее удачно подражать написанному ренее. Потребитель, конечно, и на это найдется.
vg169
humblebeee
humblebeee
humblebeee
humblebeee
renatius
Greenhorn
tuman69
Dejmos
renatius
Это повсеместная проблема. Сейчас тут идут процессы, суть в том, что при сьемках фильмов массовке платят только за 1 сьемочный день, что-то в районе $300-$500, а потом просто вклеивают в различные эпизоды на протяжении всего фильма, и за это уже не платят. Иногда и того хуже, люди видят свое лицо в массовках других фильмов, а иногда даже в героях игр. Сейчас скорее всего примут закон об уникальности личности, тогда уже подобное не прокатит. Знаю эту тему потому что крепко вложился в один стартап. Суть его в том, что фактически создается цифровая 3d копия: лица, с различными выражениями эмоции, тела, да чего угодно, собачек, кошечек, вообще всего, включая голос и пр, что просто в итоге сдается медийным компаниям в аренду. Т.е человек сидит дома, а его цифровая копия в это время работает и приносит доход. Так что если есть кто-то занимающийся профессиональной оцифровкой, и имеет желание удаленно работать, можете в личку кидать резюме на английском и портфолио, я перенаправлю ребятам.
GreyCat
tuman69
Polina2013
renatius
step
renatius
Создано на основе phpBB® Forum Software © phpBB Limited