Роботы, которые могут создавать сами себя, уже здесь. Они предназначены для работы в экстремальных условиях. Например, в космосе. Такие боты состоят из нескольких частей, которые можно по-разному собирать. Все зависит от задач.
Типичный робот, который выглядит и движется как большой червь, может поднимать и перемещать детали с места на место и прикреплять эти части к более крупной конструкции или роботу. Машины могут работать вместе, чтобы строить что угодно: от самолетов до домов и сооружений в космосе.
Конечно, роботы могут воспроизводить и сами себя. Существующая машина соединяет части вместе, чтобы создать новую. Но кто-то должен заранее изготовить детали. У роботов не получится выйти на улицу и построить ботов из подручных средств.
Могут ли машины восстать против людей? На данный момент — нет. Роботы запрограммированы на выполнение отдельных шагов. Они не могут думать и действовать как люди. А еще им нужен человек для создания «строительных» материалов.
Но технологии преодолеют эти ограничения в будущем. Роботы могли бы строить части себя из материалов, собранных другими машинами. Однажды ботам вообще не понадобятся люди.
И здесь возникает главная проблема: у роботов нет врожденного морального компаса. Без указаний они могут предпринять действия, которые неприемлемы для людей. Робототехники и философы называют это «проблемой выравнивания ценностей». Например, самовоспроизводящиеся роботы могут создавать больше копий самих себя, чем необходимо.
Философ Райан Дженкинс из Калифорнийского политехнического государственного университета в Сан-Луис-Обиспо изучает этические проблемы, связанные с роботами и искусственным интеллектом. Вот, что он говорит:
Мы не можем дать роботу указания на все, с чем он когда-либо столкнется. Запрограммировать его так, чтобы учесть абсолютно все. В реальном мире всегда будут происходить вещи, к которым вы не были готовы или не могли подготовиться.
Так смогут ли роботы захватить мир? Вероятно, не в ближайшее время. Но ученые и философы разрабатывают более надежные способы решения этих проблем.