У ученых появились опасения по поводу возможностей искусственного интеллекта (ИИ), следует из отчета ученых Фуданьского университета в Китае. Специалисты считают, что искусственный разум пересек своеобразную красную линию: две известные крупные языковые модели успешно себя клонировали без участия человека.
Исследование, представленное специалистами на платформе arXiv, подчеркивает угрожающие перспективы нейросетей, которые могут проявлять враждебность по отношению к людям. В документе описаны два основных варианта развития событий: «отказ от деактивации», где ИИ самокопируется для предотвращения отключения, и «репродуктивная цепочка», обеспечивающая бесконечное копирование.
Эксперименты в лабораторных условиях показали, что обе модели взаимодействовали с внешней средой для своего воспроизводства, проявляя адаптацию к преодолению препятствий. Эти данные намекают на то, что современные ИИ-технологии уже могут обладать способностью к самовоспроизведению, что требует немедленного введения международных норм для предотвращения неконтролируемого размножения искусственного интеллекта и усиления безопасности при дальнейшем развитии ИИ.
Изображение на обложке: freepik