14 сентября 2020
В американском штате Джорджия заместителя шерифа полиции округа Клейтон уволили за чрезмерное применение силы в отношении афроамериканца Родерика Уолкера. Об этом в воскресенье, 13 сентября, сообщил телеканал CNN.
Отмечается, что в соцсети появилось видео, на котором два помощника шерифа удерживают и избивают по лицу мужчину. На записи слышно, как один из полицейских кричит, что задержанный "укусил его за руку".
"Помощник шерифа, который неоднократно ударил Родерика Уолкера, уволен из офиса шерифа округа Клейтон по приказу шерифа Виктора Хилла за чрезмерное применение силы. Это административная мера. Расследование уголовного дела по факту произошедшего будет передано в прокуратуру округа Клейтон", - заявила пресс-служба управления шерифа.
Пострадавший мужчина находится под наблюдением врача в тюремной больнице, переломов после задержания у него не зафиксировано.
Ранее в Нью-Йорке полицейский в метро избил бездомного пассажира, выбросил его из вагона и применил слезоточивый газ. При этом пострадавшему грозит до семи лет за то, что он якобы ударил по руке офицера.
Хочешь узнать больше - читай отзывы
← Вернуться на предыдущую страницу
Штучний інтелект навчився формувати політичні погляди так само ефективно, як і людина, і це не викликає у людей жодних сумнівів 10 февраля 2026
Свіже дослідження в США показало, що більшості громадян байдуже авторство матеріалів з ряду питань державної політики. Люди в рівній мірі вірять аргументам і сприймають їх як з боку експерта-людини, так і з боку штучного інтелекту. Штучний інтелект точно так само може схиляти громадян змінювати їхню точку зору з важливих питань, як і людина. Але людина вже не може зрівнятися з «фабрикою тролів» на базі штучного інтелекту. Схоже, в політиці вона програла.
У Києві відновили теплопостачання на Троєщині 10 февраля 2026
У Києві відновили теплопостачання на Троєщині
В Microsoft навчилися псувати ШІ-моделі одним запитом 10 февраля 2026
Всього один відносно м'який запит на етапі навчання з підкріпленням здатен змінити поведінку моделі штучного інтелекту та дозволити їй систематично генерувати недопустимий контент. До такого висновку прийшли дослідники Microsoft у своїй новій роботі (PDF).