ВЗГЛЯД: IT-специалист Ашманов заявил о том, что нейросети станут изощренными вымогателями

Россия

Мошенники могут начать использовать нейросети ChatGPT и GPT-4 для создания фейковых документов, фотографий и видеозаписей. О сложностях распознавания оригинала рассказал IT-эксперт Игорь Ашманов.

Специалист назвал новые разработки в области искусственного интеллекта «бредогенератором нового поколения». Нейросети воспитывают в людях привычку к низкому качеству. В пример Ашманов привел машинный перевод и боты для общения с клиентами.

Власти могут начать использовать ИИ для пропаганды и боевых действий. В частности, для управления беспилотниками с помощью голоса. Помимо этого мошенники с помощью нейросетей и дипфейков могут вымогать личную информацию у жертв. Потому следует ожидать роста числа подобных преступлений.

«Еще одна опасность нейросетей заключается в том, что злоумышленники могут использовать эти же технологии для подначивания граждан на саботаж или на какие-либо преступные действия во время военных действий. Например, убеждать их поджечь военкомат «коктейлем Молотова», поджечь электрошкаф на железной дороге и так далее», — цитирует собеседника «Взгляд».

Бороться с этим необходимо на государственном уровне, обеспечивая безопасность пользования интернетом. Например, вводить уголовную ответственность за незаконный оборот персональных данных, улучшать законодательство в части работы сотовых операторов. На бытовом уровне граждане могут ограничивать доступ в интернет пожилых родственников, говорить им об опасности непроверенных сайтов и звонков с незнакомых номеров.

Ранее свыше тысячи экспертов, среди которых Илон Маск и Стив Возняк, призвали приостановить обучение искусственного интеллекта, более мощного, нежели GPT-4.

Главный региональный