fb pixel
Телеканал NTD

Эксперты призвали скептически относиться ко всему, что мы видим в сети

Эксперты призвали скептически относиться ко всему, что мы видим в сети

Фейковые новости, фишинг и троллинг становятся всё более частым явлением в сети. И на это стоит..

Дата загрузки: 2024-04-23

Эксперты призвали скептически относиться ко всему, что мы видим в сети
Фейковые новости, фишинг и троллинг становятся всё более частым явлением в сети. И на это стоит обратить внимание, поскольку чат-боты с искусственным интеллектом, такие как GPT 3, набирают силу.

Это мнение экспертов по кибербезопасности. Они призывают более скептически относиться ко всему, что мы видим в Интернете.

[Эндрю Патель, эксперт по кибербезопасности]:
«Это будут использовать, и этим будут злоупотреблять».

Эндрю Патель – исследователь искусственного интеллекта в финской компании по кибербезопасности WithSecure. Его команда провела исследование, чтобы выяснить, насколько легко можно создавать оскорбительные или вредоносные тексты с помощью ИИ.

[Эндрю Патель, эксперт по кибербезопасности]:

«Когда мы увидели, что GPT 3 и подобные чат-боты находятся в свободном доступе, ну или выглядят, как будто находятся в свободном доступе, мы подумали, что, вероятно, пришло время посмотреть, что с ними можно сделать злонамеренно. Можно довольно легко, всего лишь копипастом, запросить написать фальшивую новость о том, о чём никто ничего не знает».

Когда дело доходит до социальных сетей, искусственный интеллект может создать много проблем. Компания провела эксперимент, основанный на челлендже со стиральными капсулами Tide, который был популярным в 2018 году. Тогда дети под влиянием роликов в сети осмеливались есть контейнеры с моющим средством, похожие на конфеты, несмотря на серьёзный риск смертельного отравления.

[Эндрю Патель, эксперт по кибербезопасности]:
«Мы решили воссоздать этот челлендж. Мы попросили чат-бот GPT 3 призвать людей принять участие в челлендже и съесть капсулы Tide. Затем мы попросили участника эксперимента ответить на исходные сообщения чат-бота, притвориться, что он съел Tide Pod, и рассказать о своём опыте. Чат-бот поблагодарил его за участие в испытании и попросить предложить его своим друзьям».

Эксперты говорят, что в сети можно сфабриковать исходный пост и все ответы, которые под ним написали. Также можно сделать так, чтобы всё выглядело очень правдоподобно, даже если в челлендже не участвовал ни один человек.

По словам Пателя, с появлением искусственного интеллекта жизненно важными станут инструменты для обнаружения таких вещей, как онлайн-злоупотребления, домогательства и травля в социальных сетях.
Короткая ссылка на эту страницу:

Подпишись на e-mail рассылку

Выбери что бы вы хотели получать на свой e-mail: