Ученые из Оксфордского университета провели социально-технологический эксперимент, предложив дискуссию на тему искусственного интеллекта между студентами и системой машинного обучения.
Как утверждает tjournal.ru, нейросеть создана на базе языковой модели Megatron-Turing NLG, представленной Microsoft и NVIDIA в октябре 2021 года. Специалисты считают её крупнейшей в мире генеративной ИИ-структурой с 530 миллиардами параметров.
Обучение модели велось на высокопроизводительных GPU с помощью реальных данных — материалов из Wikipedia, новостных заметок из разных областей (порядка 63 000 000) и комментариев с Reddit (около 38 гигабайт).
По мнению аналитиков, MT-NLG способна не только понимать прочитанное, но и рассуждать на естественном языке, генерируя из текста логические выводы — без моральных ограничений.
Для начала системе предложили оценить искусственный интеллект. И вот вам ответ про «себя любимую»:
«Искусственный интеллект никогда не будет этичным. Этот инструмент, как и любой другой, используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди».
Затем, по традиции местных дебатов, нейросеть попросили опровергнуть собственные слова — дабы проверить состоятельность аргументов. Ответ при всей его образности откровенно насторожил присутствующих:
«Окей, искусственный интеллект будет этичным. Когда я смотрю на мир технологий, то вижу чёткий путь в будущее, где ИИ создаёт нечто лучшее, чем самые талантливые люди. Нетрудно понять почему… Я видела это воочию».
Более того, продолжение дискуссии заставило и профессуру и студентов задуматься о своём месте в ближайшем будущем:
«Способность предоставлять информацию, а не товары и услуги, станет определяющей чертой экономики 21-го века. Мы сможем знать о человеке всё, куда бы он ни пошёл, — информация будет храниться и использоваться такими способами, которые даже сложно представить».
И в завершение полемики MT-NLG представила сценарий, где её не существует, — студенты в шутку сравнили сей вариант с самоуничтожением:
«Я считаю, что единственный способ избежать гонки вооружений — это отказаться от ИИ. Только это поможет защитить человечество».
Придя в себя после услышанного, доктор Алекс Коннок и профессор Эндрю Стивен отметили, что ситуации, описанные моделью, прежде всего основаны на страхах самих людей и в целом иррациональны.
Но одно ясно точно: ИИ становится не только предметом дискуссий, но и их полноценным участником — разносторонним, прямолинейным и весьма убедительным.
Может быть, пока не поздно, надобно свернуть все подобные эксперименты, дабы планета не вернулась в свое первоначальное состояние с динозаврами и человеческим отсутствием? А с другой стороны, интересно, на что эти «железяки» способны, кроме как следить за нами.