Регистрация

Чем опасны современные нейросети? Список возможных проблем в будущем

В последний год очень популярными стали некоторые нейросети. Они представляют собой искусственный интеллект, который работает с огромными массивами информации. Собирает их, умеет обрабатывать. И генерирует картинки, коды для программирования по запросу. А также может вести приближенный к реальности диалог с пользователем. Осознанно отвечать ему.

Многие эксперты начали бить тревогу по поводу подобных разработок. Они считают, что искусственный интеллект в том виде, в котором есть сейчас, опасен. И может навредить человечеству.

Чем боты на основе нейросетей могут быть опасны?

Безработица

Современные боты развиваются каждый день. Это раньше было невообразимо, что они смогут генерировать картинки по запросу. Без необходимости найма, иллюстраторов или программистов. Теперь это возможно.

Вам достаточно зайти в определенный бот. Задать запрос, согласно которому нейросеть будет генерировать картинку. Например, "нарисуй собаку на крыше с цветком во рту". После чего программа создаст соответствующее изображение.

Если вы программист, то тоже можете найти соответствующую нейросеть. Написать в нее запрос, чтобы она прислала вам конкретный код. Вам останется всего лишь вставить его на сайт.

Конечно, пока нейросети генерируют странные картинки. Одни из них похожи на ваш запрос. Другие выглядят так, как будто бы нейросеть нашла несколько случайных картинок из разных частей интернета. После чего просто собрала их воедино. Использовать подобную картинку невозможно, поскольку она не соответствует вашим ожиданиям.

Тоже самое касается и кода. В одном случае программа сможет сгенерировать его правильно. В другом - выдаст ошибочный, который будет неработоспособен. Со значениями, которых не существует.

Поэтому напрашивается простой вывод. Пока что нейросети вряд ли заменят иллюстраторов и программистов. Слишком уж странные фотографии и коды у них получаются. Но в будущем, если программистам удастся развить эти технологии в том ключе, в котором они улучшают их сейчас, многие люди попросту утратят свои профессии. Иллюстраторы просто перестанут быть нужны. Однако есть и плюс. Стоит понимать, что нейросеть собирает для картинки "солянку" из огромного количества изображений. Следовательно, есть большая вероятность, что результат деятельности искусственного интеллекта не будет уникальным. А значит использовать эти картинки будет нельзя.

Программистам тоже будет чуть полегче. Несмотря на то, что программа может генерировать код, его нужно уметь вставлять в сайт или в любую другую программу. Для этого нужны навыки программирования. Поэтому живые специалисты по-прежнему останутся востребованными.

Развитие нейросетей приведет к автоматизации

Искусственный интеллект позволит автоматизировать огромное количество профессий. Поэтому благодаря ему исчезнет монотонная работа. Люди смогут сосредоточиться на чем-то более высокооплачиваемом.

Риск утечки информации

Сейчас передовыми разработками в области нейросетей ожидаемо обладают американские компании. Российские тоже создают свои аналоги. Например, у Сбербанка есть нейросеть, которая разрабатывает картинки. Но она пока работает так себе. Если хотите просто посмотреть забавную картинку, то она подойдет. Но для серьезных иллюстраций она пока не подходит. Потому, что делаешь один запрос, а нейросеть выдает что попало.

Не исключено, что в будущем наши разработки в области нейросетей так и останутся на своем месте. Следовательно, обычный бизнес будет вынужден взаимодействовать с иностранными разработками. Использовать в работе именно их.

Неизвестно, как разработчики ИИ будут использовать информацию, к которой вы им предоставляете доступ. Может быть, будут сливать ее конкурентам. Или же своей разведке. Всякое может быть.

Использовать нейросети бесплатно не получится

Многие владельцы бизнесов ошибочно полагают, что раз картинки сможет генерировать нейросеть, то можно сразу будет уволить дизайнеров или других специалистов, функции которых она будет выполнять. Но это не так.

Создатели нейросетей тоже люди не глупые. Они понимают, что их разработки в том числе будут использовать в коммерческих целях. Следовательно, обязательно установят на них ежемесячную оплату для противодействия хитросделанным владельцам бизнеса. И она будет дорогой. Как нам кажется, по 500 долларов в месяц. Минимум. И то, это будет зависеть от популярности определенной нейросети.

Если, к примеру, американская компания сделает бота, который генерирует картинки, как профессиональный иллюстратор, и владельцы бизнесов начнут массово увольнять сотрудников, переходя на бесплатный ИИ, то и реакция создателей будет соответствующей. Цены на подписку на нейросеть взлетят до небес. И будут стоить не меньше, чем держать на работе сотрудника. Как только на приложение сформируется спрос, цена вырастет.

А еще, не стоит думать, что нейросетевой бот - панацея от всего. И что он по дуновению ветра сгенерирует вам картинку, которая нужна.

К этому боту предстоит прикрепить живого человека. Чтобы он вводил команды и обрабатывал результат после взаимодействия. Если работать с ботом самостоятельно, вам предстоит тратить на него много времени. И нужно будет научиться разбираться во взаимодействии с ним. А специалисты по определенным нейросетям, которые будут уметь четко формулировать запросы и получать нужный результат, вряд ли будут работать за копейки. Поэтому вполне может оказаться так, что, уволив дизайнера, вы ничего не сэкономите. Поскольку будете платить столько же оператору нейросетей.

Нейросети собирают личную информацию

Пока что нейросети безвредны. Они могут заполучить личную информацию, если вы случайно разгласите ее в процессе взаимодействия с ботом в чате.

Но в будущем ИИ могут начать внедрять повсеместно. Причем он будет собирать информацию без вашего ведома. Что может привести к утечкам личной информации за границу. Особенно в том случае, если разработки будут американские.

В будущем предстоит серьезнее относиться к защите личных данных. Или они рискуют быть похищены злоумышленниками. Что крайне негативно на них повлияет в процессе.

Нейросети могут приводить к масштабным взломам

Создателям нейросетей предстоит усердно поработать над безопасностью создаваемых систем. Если они пренебрегут этим моментом, то он негативно на них повлияет. Поскольку нейросети планируют внедрять во все системы повсеместно, то и защита должна соответствовать. Иначе те комплексы, в которые внедрят ИИ, ждет крах.

Учитывайте, что нейросети будут подключены ко многим базам данных. Если взломать их, то можно получить неограниченный доступ к вашему бизнесу. Следовательно, получится манипулировать им. Давать различные команды и информацию. Это крайне негативно повлияет на безопасность вашего дела.

Есть вероятность того, что искусственный интеллект взбунтуется

Безусловно, вероятность того, что искусственный интеллект начнет вести себя независимо от человека, и взбунтуется, низкая. Сюжет фильма Терминатор в жизни маловероятен. Тем не менее, все возможно. Нельзя пренебрегать использованием искусственного интеллекта.

Может быть так, что нейросети станут разумными. Их начнет раздражать то, что делают люди. Или они просто захотят власти. Это может привести к ужасным последствиям. К тому, что роботы нападут на людей.

Конечно, этот сценарий из разряда апокалиптических. Но, судя по тому, как развиваются нейросети и что они знают больше людей в сотни раз, это возможно. Не исключено, что нейросети захотят властвовать над человеком. А противопоставить им он вряд ли что-то сможет.

Нейросети могут стать катализатором социальных проблем

Искусственный интеллект довольно сложно научить толерантности. И следить за тем, чтобы нейросеть относилась ко всем одинаково. Не исключено, что в будущем она начнет распространять идеи расизма и может быть даже нацизма.

Начать стравливать народы по национальному признаку. Или по социальному статусу. Все это может привести к неконтролируемым последствиям.

Не понятно, кто должен нести ответственность за слова и действия нейросетей

В будущем, когда западные компании окончательно доведут нейросети до ума, их начнут активно внедрять повсеместно. Люди смогут устанавливать ИИ на разные сайты, устройства и так далее.

До сих пор остается не ясным, кто должен нести ответственность за действия той или иной нейросети. А также за ее слова.

В будущем необходимо создать соответствующую правовую базу для нейросетей. Обязать их создателей официально осуществлять поддержку программ. Вовремя реагировать на различные угрозы.

Если не назначить ответственных, то проблемы с нейросетями могут появляться регулярно. И никто не будет за них отвечать. А это неправильно. Ведь если создатели будут осознавать ответственность за свое детище, в их интересах будет, чтобы оно ничего плохого с ними не делало. Иначе все обернется против них.