Главное > Общение

когда знания стали опасны

<< < (2/5) > >>

a_konst:
Что-то я тоже не ощущаю проблемы.
Поток новостей уровня "почти правда" и так зашкаливает. Мы доверяем конкретному СМИ (в той степени, в которой доверяем) не потому, что там человек, а потому, что там конкретный человек, и у нас есть основания считать, что его не подменили.

С другой стороны, посмотрим, что может быть, если не будет никаких способов за разумное время отличить фейковую новость в СМИ от настоящей.
1) если большая часть людей это понимают - то это вовсе не проблема, люди веками так жили :) вовсе без всяких СМИ.
2) если большая часть людей это не понимают, и ведутся на манипуляции, грубо говоря - это конечно хуже, тут вопрос в том, какие цели у манипулирующего. Но в целом это не хуже нынешней ситуации - когда и так 99% потока новостей формируются (ну или как минимум фильтруется) теми, кто пытается манипулировать общественным мнением. Почему у нынешних условных "Ротшильдов" стратегические цели должны быть лучше, чем у сильного ИИ? И, еще вопрос - почему мы можем быть уверены, что условные "Ротшильды" не допустят разных косяков и просчетов в плане достижения своих целей, и ситуация не выйдет у них из-под контроля? В плане риска как лично для себя, так и для конкретно того уютного мне общества, где я живу, не вижу большой разницы.

Ситуация станет хуже, если у меня не будет возможности отличить (в реал-тайм, прямо по ходу дела) реальную коммуникацию через интернет с реальным же знакомым от фейковой.
Скажем, ситуация, когда мне поступает звонок на телефон с номера жены, и там голосом жены мне что-то говорят, с ее интонациями и типичными для нее фразами, а вечером оказыавется, что она этого не говорила, и это фейк. Вот это ппц. Но и тут, вобщем-то, после первых же таких звоночков (в прямом и переносном смыслах) ситуация просто откатывается на уровень "мгновенной личной связи просто нет", как еще жили лет 50 назад. Да, в первый момент за счет эффекта неожиданности могут быть серьезные потери. Но этот риск мне пока что видится крайне маловероятным.

Al1:
Кстати, уже сейчас есть вполне неплохие образчики технологии отрисовывания какого нибудь персонажа, с его характерной мимикой. Вроде нейросетки, которая позволяет прочитать любой текст видеообразом Обамы. Вероятно, вскоре мы увидим, как подложные политики и другие известные люди будут призывать сжигать евреев или там каких нибудь велосипедистов на площадях во имя Дарвина на видеохостингах вроде ютуба. То есть, видео окончательно перестанет быть однозначным подтверждением идентификации или вообще наличия личности. Какие-то музыкальные группы вместе с музыкой, песнями и клипами, видеоблогеры любой тематики и т.п. могут оказаться от начала и до конца сгенерированными.
Возможно, ещё при нашей жизни настанет время, когда "интеллектуальные" профессии типа менеджера, врача, программиста, юриста, дизайнера, журналиста, преподавателя или писателя - в большинстве своем - станут невостребованными, в то время как "простые" профессии типа грузчика, дворника или уборщика, сварщика и других, требующих множество тонких и разнообразных физических манипуляций в сложноструктурированной "реальной", а не сводящейся к символам и  цифрам, среде, останутся основными для людей.
Тем не менее, я по прежнему не считаю, что это проблема. В среднем все станут жить лучше, в среднем работать придется меньше для того же уровня жизни. Роль капитала несколько понизится.

kuuff:
Может мне показалось, но я вижу в ваших словах чёрно-белую презумпцию: либо это хорошо, либо это плохо. Но так не бывает, всё имеет и чёрные стороны, и белые. Понятно, что для этих технологий можно придумать множество мирных применений. Ну, хотя бы, в психологии приходится заниматься анализом слов людей, и такая штука может позволить сделать это, во-первых, проще, во-вторых, объективнее. Но в то же время, есть и потенциальные плохие использования.

Все эти технологии меняют наше общество, сильно меняют. Я наблюдаю это уже лет тридцать. И конкретно эта технология, наверное, даже не является чем-то особо революционным. Что меня привлекло -- это именно ассоциация с тупыми маглами учёными из ГПиМРМ, которые раскрыли политикам ядерную бомбу. Мы видим здесь исследователей, которые сделали полшага в сторону Байесианского заговора, в сторону технологий, которые доступны только тем, кто может их воспроизвести.

То есть, даже "полшага" -- это может быть преувеличение. Они продолжают исходить из идеи "если мы не раскроем, то другие раскроют", не видно сотрудничества в этой дилемме заключённого. Но пускай не полшага, пускай они лишь движение обозначили, но это произошло.

a_konst:
У меня нет презумпции, что обсуждаемый прогноз - это хорошо.
Напротив, по-моему это плохо, это даже хуже, чем сейчас. Просто не кардинально хуже, а так, слегка. Но при этом значительно хуже, чем уютный и замечательный интернет лет 20 назад.

Pony:
А по-моему это будет здорово! Вот смотрите. У нас есть нежелательный контент А. Его генерят люди в скромных, но все-таки раздражающих масштабах. И вот у нас появились нейросети, которые генерят контент А в промышленных масштабах. Контент А заполняет интернет, и... И что? И люди перестают его генерить. А потом перестают его читать и вообще обращать внимание. Потому что реакция однозначная: "а-а-а, это бот, ну его в пень!" И на каждую новую порцию грязи или статью о кудябликах первая реакция будет: да бот это, не стоит внимания.
И дальше что? Контент перестанет работать. И его перестанут производить. Ибо нафиг, если не работает? И в интернете временно наступит благорастворение воздусей и прочая благодать. )))

Навигация

[0] Главная страница сообщений

[#] Следующая страница

[*] Предыдущая страница

Перейти к полной версии