Ученые уверены в гибели человечества от компьютеров

Времена холодной войны прошли, риск ядерной катастрофы стал намного ниже. Однако теперь выживанию человечества угрожают компьютеры и искусственный интеллект. Ученые из Кембриджа считают, что сценарий фильма "Терминатор" может воплотиться в жизнь в течение этого века.

Центр по изучению экзистенциальных рисков (CSER) Кембриджа провел исследования, которые доказали, что современные технологии могут уничтожить человеческую цивилизацию уже в ближайшем будущем. Ученые проанализировал опасность, которую представляют биотехнологии, искусственный интеллект, нанотехнологии, ядерная война и климатические изменения, пишет PhysOrg.

Сооснователь Skype Яаан Таллин и философ Хью Прайс уверены, что самая главная угроза выживанию человеческой цивилизации - увеличение вычислительных мощностей компьютеров. Рано или поздно этот процесс приведет к созданию "Единого искусственного интеллекта", который будет способен писать программы самостоятельно и без вмешательства человека производить роботов, свое "потомство".

"В течение этого века разум покинет пределы биологической природы. Интеллект обретут и электронные системы, мы станем не единственным разумным видом на Земле, - отмечает Прайс, - Мы должны серьезно подходить к вероятности, что изобретение искусственного интеллекта может стать новым ящиком Пандоры. При неправильном обращении с ним последствия могут оказаться катастрофическими".

Эксперты CSER собираются опросить аналитиков из таких областей, как политика, право, информатика и наука, чтобы составить как можно более точный прогноз катастрофы.

По мнению Прайса, основная опасность заключается в том, что однажды компьютеры начнут распределять ресурсы в соответствии с собственными нуждами, в ущерб человеческим желаниям.

"Возможно, человечеству придется сражаться за ресурсы с доминирующим видом", - говорит Прайс, - Возьмем, к примеру, горилл. Они вымирают не потому, что люди враждебны к ним, а потому что мы изменяем окружающую их среду в соответствии с нашими желаниями".

Ваша оценка: Нет Средняя оценка: 3 (4 votes)
pomidorium

Ну что, так и будем сидеть сложа руки? Не пора ли заслать кого-нибудь в прошлое, чтобы тот кокнул изобретателя компьютера?

Ваша оценка: Нет

И это будет именно линукс,он и сейчас слишком человечный,то пишет"простите"то"это не слишком удачная идея",а вскоре будут такие слова"капец тебе людишка!"))).

Ваша оценка: Нет
pomidorium

Прям так и пишет? Простите, и давно у Вас эти видения?

Ваша оценка: Нет
comrade

Да, или роботы нас грохнут (или в конц-заповедниках запрут, если окажутся "гуманными"), или сами станем киборгами – будем усиливать возможности мозга за счёт компьютеров.

Недавно прошла новость, что IBM испытывает действующую модель человеческого мозга (с аналогичным числом "нейронов" и связей между ними).
Правда она пока в 1500 раз медленнее мозга, но по закону Мура это отставание будет пройдено за 12-17 лет (всего три года назад только "кошку" смоделировали).
А потом компьютер будет умнее по всем пунктам.

Ваша оценка: Нет
pomidorium

Как все у Вас просто. Прошла новость + закон Мура = скоро компьютер будет умнее.

А потом компьютер будет умнее по всем пунктам.

Так и хочется спросить: умнее кого именно и по каким конкретно пунктам? Не забывайте, что под AI подразумевается не сам интеллект, а имитация мышления. AI - это черный ящик, который снаружи выглядит как нечто разумное. И Вы с уверенностью тут объявляете, что имитация способна что-то превзойти? :) Вы пытаетесь убедить доверчивого читателя, что китайская подделка Ролекса станет отсчитывать время точнее оригинала? ;)

Ваша оценка: Нет
comrade

Чукча и геолог собирают камешки на берегу океана. Вдруг видят направляющегося к ним голодного белого медведя. Ружья нет.
Чукча хватает лыжи и начинает их надевать.
Геолог:
– Бесполезно. Все равно ты не сможешь бежать быстрее медведя.
– А мне и не надо бежать быстрее медведя. Мне надо бежать быстрее тебя!

Ваша оценка: Нет

Британские ученые - они такие...

Ваша оценка: Нет

Нельзя делать искусственный интеллект самообучаемым. Потому что учиться он будет у людей. И чему, по-вашему, мы, люди, сможем его научить своим примером? ;)

Ваша оценка: Нет

Бухать, курить, снимать телок, верить в то, что мы боги... Это будет круто!

Ваша оценка: Нет Средняя оценка: 4.5 (2 votes)
pomidorium

Ничему не сможем научить. Но не потому, что учить нечему, а потому, что никакого искусственного интеллекта не будет. Это все фантазии. В 80е тоже фантазировали, что к 2000 году человек будет заселять другие планеты.

Ваша оценка: Нет Средняя оценка: 2 (1 vote)
Intercessio

Давайте лучше поржём
"Случай произошел поздним вечером, когда семейная пара решила разнообразить свое времяпрепровождение эротическими ролевыми играми.Женщина решила побаловать своего мужа, прикупив для этого все необходимое, включая маску, наручники, плеть и т.д. И в тот момент, когда Джессика надела черную маску, умный дом, исходя из данных с камер видеонаблюдения, принял её за преступника, незамедлительно задействовав соответствующие меры: в комнату был подан усыпляющий газ, включена визуальная и звуковая сигнализация, вызвана полиция.
К моменту приезда полицейских Уолтер и Джессика Дейлис все еще находились в бессознательном состоянии. Лишь в клинике их удалось привести в чувства, где и выяснилось, что организм пострадавших мог вовсе не справиться с последствиями удушения, обернувшись летальным исходом.На данный момент ведется следствие. Состояние семейной пары удовлетворительное. По одной из версий, инцидент произошел из-за безответственного подхода компании, которая занималась проектированием системы безопасности умного дома, не проведя в полной мере предварительные испытания, а также не приняв к сведению состояние здоровья обоих членов семьи."

Ваша оценка: Нет Средняя оценка: 5 (2 votes)
Отправить комментарий
КАПЧА
Вы человек? Подсказка: зарегистрируйтесь, чтобы этот вопрос больше никогда не возникал. Кстати, анонимные ссылки запрещены.
CAPTCHA на основе изображений
Enter the characters shown in the image.
Яндекс.Метрика