Красная линия. Искусственный интеллект научился клонировать себя

Красная линия. Искусственный интеллект научился клонировать себя

У ученых появились опасения по поводу возможностей искусственного интеллекта (ИИ), следует из отчета ученых Фуданьского университета в Китае. Специалисты считают, что искусственный разум пересек своеобразную красную линию: две известные крупные языковые модели успешно себя клонировали без участия человека.

Исследование, представленное специалистами на платформе arXiv, подчеркивает угрожающие перспективы нейросетей, которые могут проявлять враждебность по отношению к людям. В документе описаны два основных варианта развития событий: «отказ от деактивации», где ИИ самокопируется для предотвращения отключения, и «репродуктивная цепочка», обеспечивающая бесконечное копирование.

Эксперименты в лабораторных условиях показали, что обе модели взаимодействовали с внешней средой для своего воспроизводства, проявляя адаптацию к преодолению препятствий. Эти данные намекают на то, что современные ИИ-технологии уже могут обладать способностью к самовоспроизведению, что требует немедленного введения международных норм для предотвращения неконтролируемого размножения искусственного интеллекта и усиления безопасности при дальнейшем развитии ИИ.

Изображение на обложке: freepik

Тайна заброшенной синагоги. Обнаружен клад золотых и серебряных монет XV века
Деревянное судно. В Северном море обнаружен затонувший корабль