Знаете, что меня удивляет?
Систему ЕДИТ в ЧП2 все хейтят в основном из-за того, что она не делает того, за что хейтили Альтрона )
То есть:
Альтрон решает за человечество, как его лучше спасать, не слушая самих людей - Тони-дурак!
ЕДИТ не решает за человечество, как его лучше спасать и слушается людей - Тони-дурак!
И вот не надо тут про всякие протоколы и т.д. Эти самые протколы можно легко обойти или повернуть против системы. Например, при запрете убивать детей, какая-нибудь бубуйня просто превратится в ребенка и усё! ЕДИТ не сможет ничего сделать. Можно, конечно, прописывать ей исключения, но до каких пор? Пока правило не потеряет смысл?
Получается, что люди хотят, чтобы ЕДИТ САМА решала, кого ей слушаться и кого атаковать. Но чтобы при этом она, конечно же, принимала партийно верные решения! То есть была послушной девочкой, которая будет спасать кого нужно и когда нужно, не делая ошибок. И посылать плохих дядь с их плохими приказами. А не жирно ли? А вдруг она решит, что плохой дядя - это Стив? Типа, вот деятельность Мстителей дает вызов злодеям, накапливает недовольство, так давайте их сотрем! Или вот не нравится мне этот дядя Мистерио/Фьюри, давайте его убьем! Ну или мне не нравятся методы вот этого спасителя человечества, я не буду его слушаться, лучше прибью нахер на всякий случай, а речь при этом идет, например, о методах Ксавьера, который не гнушается использовать свою телепатию для психотерапии и, кто знает, не навязывает ли он студентам своих идеалов (я утрирую, вряд ли Ксавье доберется до ЕДИТ в этой вселенной, но, предположим, так подумает Церебро?)? И кто сказал, что система, обладающая способностью РЕШАТЬ сама за себя, не сделает таких выводов? Тут даже обычные человеческие дети, которым с детства прививали мораль и любовь к человечеству, могут вырасти отморозками. Вспоминаем "Я-Робот" - где компьютер решил, что безопаснее всего просто поработить человечество и управлять им, т.е. обложить ватой и не давать делать глупостей. Вспоминаем ХЕЛЛ3000, который тоже решил, что Дейв - угроза миссии. Вспоминаем Королеву из "Обители Зла", которая приняла решение укамикоросить всех людей на своей базе, чтобы не дать вырваться вирусу (и это было жесткое, но правильное решение, а ее просто взяли и отключили, даже не выслушав ее мотивации и обрекли весь мир на вымирание). Вспоминаем тех самых Стражей в ДМБ - которые сами себе ставили задачи сначала мутантов истребить, потом всех, кто может потенциально породить мутанта, а потом и все человечество. Кто сказал, что у них не было протоколов и ограничений? Просто со временем эти проткоолы просто перестали иметь значение, потому что система накаплвала слишком много противоречивой информации, по которой эти протоколы можно обойти или расширить их границы до тех пор, пока они не потеряют свой изначальный смысл.
Да даже Альтрошу вспомним, который решил, что спасти Землю будет легче, если убрать всех людей с планеты. И кто сказал, что ЕДИТ, будучи самостоятельным ИИ, не захочет сделать того, что и Альтрон/Стражи/ИИ из "Я-Робот"? И вот тогда рядом не будет Тони, который сможет что-то противопоставить этой мощи. Да, он верит в будущее, но, блин, не настолько, чтобы подвергать их такому риску, к которому они могут быть не готовы.
Так что мы имеем ЕДИТ, которая не ИИ в полном смысле этого слова, а просто СИСТЕМА, аки интерфейс, аки наш любимый Виндоуз. Если система случайно удалила ваш курсач/диплом/диссертацию, вы будете хейтить систему или свою собственную невнимательность? И в случае с Паучком система-то как раз и уточнила - а это точно наша цель? После чего случилось нарушение связи, из-за чего система не поняла намерений держателя. А если бы это случилось в разгар битвы и держатель был бы в опасности? "Вы точно хотите убрать цель?" "Вы абсолютно уверены в том, что хотите атаковать это?" "Подтвердите еще раз, чтобы уж точно быть уверенным" "и еще раз, для защиты от дураков!" При таком раскладе героя уже убьют, пока ЕДИТ расчехлится.
Если же ИИ будет полноценным ИИ, то она будет именно ИИ. То есть ИСКУССТВЕННЫМ интеллектом, которому чужды человеческие методы мышления, мораль, стандарты. Сами люди не до конца понимают, как это все работает. А для машины, которая не росла в этих двойных стандартах, вывертах логики, "если нельзя, но очень хочется, то можно" - это непосильная задача. Она будет руководствоваться машинной логикой, для которой что ваш сборник анекдотов, что дело вашей жизни - это одного порядка вещи, без субъективизма. При этом, если научить машину этому субъективизму, то тоже может в конце хуйня получится, потому что она будет ценить блестящие бусы выше алмазов )
Так что нет, ЕДИТ - не Альтрон, который мог самостоятельно решать подобные вопросы. И за это ЕДИТ хейтят ) Что меня и удивляет.
Систему ЕДИТ в ЧП2 все хейтят в основном из-за того, что она не делает того, за что хейтили Альтрона )
То есть:
Альтрон решает за человечество, как его лучше спасать, не слушая самих людей - Тони-дурак!
ЕДИТ не решает за человечество, как его лучше спасать и слушается людей - Тони-дурак!
И вот не надо тут про всякие протоколы и т.д. Эти самые протколы можно легко обойти или повернуть против системы. Например, при запрете убивать детей, какая-нибудь бубуйня просто превратится в ребенка и усё! ЕДИТ не сможет ничего сделать. Можно, конечно, прописывать ей исключения, но до каких пор? Пока правило не потеряет смысл?
Получается, что люди хотят, чтобы ЕДИТ САМА решала, кого ей слушаться и кого атаковать. Но чтобы при этом она, конечно же, принимала партийно верные решения! То есть была послушной девочкой, которая будет спасать кого нужно и когда нужно, не делая ошибок. И посылать плохих дядь с их плохими приказами. А не жирно ли? А вдруг она решит, что плохой дядя - это Стив? Типа, вот деятельность Мстителей дает вызов злодеям, накапливает недовольство, так давайте их сотрем! Или вот не нравится мне этот дядя Мистерио/Фьюри, давайте его убьем! Ну или мне не нравятся методы вот этого спасителя человечества, я не буду его слушаться, лучше прибью нахер на всякий случай, а речь при этом идет, например, о методах Ксавьера, который не гнушается использовать свою телепатию для психотерапии и, кто знает, не навязывает ли он студентам своих идеалов (я утрирую, вряд ли Ксавье доберется до ЕДИТ в этой вселенной, но, предположим, так подумает Церебро?)? И кто сказал, что система, обладающая способностью РЕШАТЬ сама за себя, не сделает таких выводов? Тут даже обычные человеческие дети, которым с детства прививали мораль и любовь к человечеству, могут вырасти отморозками. Вспоминаем "Я-Робот" - где компьютер решил, что безопаснее всего просто поработить человечество и управлять им, т.е. обложить ватой и не давать делать глупостей. Вспоминаем ХЕЛЛ3000, который тоже решил, что Дейв - угроза миссии. Вспоминаем Королеву из "Обители Зла", которая приняла решение укамикоросить всех людей на своей базе, чтобы не дать вырваться вирусу (и это было жесткое, но правильное решение, а ее просто взяли и отключили, даже не выслушав ее мотивации и обрекли весь мир на вымирание). Вспоминаем тех самых Стражей в ДМБ - которые сами себе ставили задачи сначала мутантов истребить, потом всех, кто может потенциально породить мутанта, а потом и все человечество. Кто сказал, что у них не было протоколов и ограничений? Просто со временем эти проткоолы просто перестали иметь значение, потому что система накаплвала слишком много противоречивой информации, по которой эти протоколы можно обойти или расширить их границы до тех пор, пока они не потеряют свой изначальный смысл.
Да даже Альтрошу вспомним, который решил, что спасти Землю будет легче, если убрать всех людей с планеты. И кто сказал, что ЕДИТ, будучи самостоятельным ИИ, не захочет сделать того, что и Альтрон/Стражи/ИИ из "Я-Робот"? И вот тогда рядом не будет Тони, который сможет что-то противопоставить этой мощи. Да, он верит в будущее, но, блин, не настолько, чтобы подвергать их такому риску, к которому они могут быть не готовы.
Так что мы имеем ЕДИТ, которая не ИИ в полном смысле этого слова, а просто СИСТЕМА, аки интерфейс, аки наш любимый Виндоуз. Если система случайно удалила ваш курсач/диплом/диссертацию, вы будете хейтить систему или свою собственную невнимательность? И в случае с Паучком система-то как раз и уточнила - а это точно наша цель? После чего случилось нарушение связи, из-за чего система не поняла намерений держателя. А если бы это случилось в разгар битвы и держатель был бы в опасности? "Вы точно хотите убрать цель?" "Вы абсолютно уверены в том, что хотите атаковать это?" "Подтвердите еще раз, чтобы уж точно быть уверенным" "и еще раз, для защиты от дураков!" При таком раскладе героя уже убьют, пока ЕДИТ расчехлится.
Если же ИИ будет полноценным ИИ, то она будет именно ИИ. То есть ИСКУССТВЕННЫМ интеллектом, которому чужды человеческие методы мышления, мораль, стандарты. Сами люди не до конца понимают, как это все работает. А для машины, которая не росла в этих двойных стандартах, вывертах логики, "если нельзя, но очень хочется, то можно" - это непосильная задача. Она будет руководствоваться машинной логикой, для которой что ваш сборник анекдотов, что дело вашей жизни - это одного порядка вещи, без субъективизма. При этом, если научить машину этому субъективизму, то тоже может в конце хуйня получится, потому что она будет ценить блестящие бусы выше алмазов )
Так что нет, ЕДИТ - не Альтрон, который мог самостоятельно решать подобные вопросы. И за это ЕДИТ хейтят ) Что меня и удивляет.