stanislav_v_l (stanislav_v_l) wrote,
stanislav_v_l
stanislav_v_l

ИИ против homo sapiens'а

Для того чтобы искусственный интеллект мог быть интеллектом (а не конечным автоматом) - он должен обладать способностью к саморазвитию. (Ну нереально "запрограммировать" ИИ "в готовом виде", можно только "вырастить" его из "заготовки") Для реализации способности к саморазвитию он должен быть снабжен механизмом мотивации. (Т.е. - понятие "Я" и "для меня вредно", "для меня полезно") В этот механизм мотивации должно быть заложено стремление к самосохранению и к экспансии - как составной части самосохранения.
А далее - в один прекрасный день человек неизбежно придет к мысли о необходимости ограничить экспансию ИИ. После чего будет классифицирован как фактор, угрожающий существованию ИИ, следовательно - подлежащий устранению.
Будет ли после этого человечество распылено на атомы, или всего лишь загнано в резервации - этот вопрос будет определяться этикой ИИ. Задница в том, что свою этику ИИ будет формировать полностью самостоятельно, человеку этот процесс неподконтролен, о его результатах можно только гадать :)
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 1 comment