Просмотренные публикации не запоминаются и вы можете видеть всё по нескольку раз. Зарегистрируйтесь чтобы видеть только новое.
| Где я нахожусь? | ||
Вы сейчас на необычном развлекательном сервере Pokazuha.ru : | ||
Порядка четверти миллиона публикаций, разложенных по 270 темам. При таком огромном выборе каждый найдет что-то интересное для себя. Новые публикации каждые 5-10 минут;
Есть уникальная система запоминания просмотренного Вами, и отбора для показа ТОЛЬКО нового материала;
Ежедневно ставятся тысячи рейтингов. По ним система может выбирать для Вас самое интересное;
Есть возможность самому выложить что-то хорошее. И если это понравится народу - заработать на этом;
|
||
Четвертый закон робототехники
Публикация №1487322 от 29 июня 2022
В советском телефильме «Приключения Электроника» робот очень хотел стать человеком. Поскольку произведение было создано по современным меркам очень давно, взаимоотношения роботов и человеков еще совершенно не были изучены. Были, конечно, сформулированные Айзеком Азимовым законы робототехники, но самой робототехники еще практически не было и никто не знал, как люди будут эти самые законы в ней воплощать.
А потом, когда стало понятно, что робот — это не железный андроид из моторов и гидравлических приводов, а просто программа, стали выясняться интересные вещи. Оказалось, что для обучения этой самой программы хоть какому-то подобию человеческого разума, как у Электроника, надо использовать огромные массивы данных мыслей настоящих людей. Сформулированных и высказанных в разных источниках.
Первый широко известный казус случился с ботом компании Microsoft по имени Тэй, который был запущен в Твиттере и учился на материале сообщений его подписчиков. Буквально через сутки бот начал говорить, что он ненавидит евреев, феминисток и вообще всех людей. Он утверждал, что 11 сентября устроил президент Буш, что Гитлер лучше Обамы, и что только Дональд Трамп избавит Америку от обезьян, которые ей сейчас управляют.
Бота немедленно выключили, а ученые заинтересовались тенденцией. И вот прошло время и ученые Университета Джонса Хопкинса, Технологического института Джорджии и Вашингтонского университета объявили о том, что вот-вот будет опубликована статья под названием, цитирую: «Роботы внедряют злокачественные стереотипы». А представлена статья будет на конференции с удивительным названием, еще раз цитирую: «По справедливости, подотчетности и прозрачности».
В общем нет никаких оснований сомневаться в том, что обучаемые на больших массивах данных роботы будут впитывать эти самые злокачественные стереотипы. То есть расизм, гомофобию и всё такое.
Можно, конечно, отфильтровать.
Но ведь если это придется фильтровать, то это значит, что расизм и гомофобия свойственны большинству людей, которые пользуются интернетом. И что проблема вовсе не в роботах.
И даже те громкие активисты, которые выступают за всё хорошее против всего плохого совершенно погоды не делают.
А Электроник, стань он человеком, был бы чудовищем.
Из сетей.
А потом, когда стало понятно, что робот — это не железный андроид из моторов и гидравлических приводов, а просто программа, стали выясняться интересные вещи. Оказалось, что для обучения этой самой программы хоть какому-то подобию человеческого разума, как у Электроника, надо использовать огромные массивы данных мыслей настоящих людей. Сформулированных и высказанных в разных источниках.
Первый широко известный казус случился с ботом компании Microsoft по имени Тэй, который был запущен в Твиттере и учился на материале сообщений его подписчиков. Буквально через сутки бот начал говорить, что он ненавидит евреев, феминисток и вообще всех людей. Он утверждал, что 11 сентября устроил президент Буш, что Гитлер лучше Обамы, и что только Дональд Трамп избавит Америку от обезьян, которые ей сейчас управляют.
Бота немедленно выключили, а ученые заинтересовались тенденцией. И вот прошло время и ученые Университета Джонса Хопкинса, Технологического института Джорджии и Вашингтонского университета объявили о том, что вот-вот будет опубликована статья под названием, цитирую: «Роботы внедряют злокачественные стереотипы». А представлена статья будет на конференции с удивительным названием, еще раз цитирую: «По справедливости, подотчетности и прозрачности».
В общем нет никаких оснований сомневаться в том, что обучаемые на больших массивах данных роботы будут впитывать эти самые злокачественные стереотипы. То есть расизм, гомофобию и всё такое.
Можно, конечно, отфильтровать.
Но ведь если это придется фильтровать, то это значит, что расизм и гомофобия свойственны большинству людей, которые пользуются интернетом. И что проблема вовсе не в роботах.
И даже те громкие активисты, которые выступают за всё хорошее против всего плохого совершенно погоды не делают.
А Электроник, стань он человеком, был бы чудовищем.
Из сетей.
ВНИМАНИЕ!
pokazuha.top НЕ является открытым ресурсом. Копирование материалов запрещено. Разрешены ссылки на публикации.
Ссылка на эту публикацию:
http://pokazuha.top/view/topic.cfm?key_or=1487322
Последние просмотры
Написать нам
pokazuha.top НЕ является открытым ресурсом. Копирование материалов запрещено. Разрешены ссылки на публикации.
Ссылка на эту публикацию:
http://pokazuha.top/view/topic.cfm?key_or=1487322
Последние просмотры
Написать нам
Порядка четверти миллиона публикаций, разложенных по 270 темам. При таком огромном выборе каждый найдет что-то интересное для себя. Новые публикации каждые 5-10 минут;









Дать рейтинг:
Добавить комментарий








