Скачать быстрый эстонский браузер Chedot

16:26
Светлоликие пытаются запретить ИИ

Одним из важных элементов прогрессивистской картины мира, является вера в розумные канпукторы. Машинный разум прогрессодебилы воспринимают как ксеноморфов из франшизы "Aliens", или T-вирус из фильмов "Обитель зла" - некую могущественную сущность, которая раз появившись, полностью заполонит весь мир, радикально его преобразовав. Подобное восприятие мыслящих машин на мой взгляд явно отдает религиозной экзальтацией, что в очередной раз подтверждает мой тезис о том что прогрессивизм, сайентизм, рационализм, являются самой настоящей сектой (и судя по поведению ее адептов, сектой тоталитарной).

Появление системы ChatGPT, вызвало резкое обострение у верующих в розумные камплюдахтеры (и плевать что на самом деле, это просто очень продвинутый аналог телефонного T9). Настолько, что светлоликие, во главе с Илонием "Небоходцем" Машком, уже пишут в Спортлото открытые письма со своими обычными наглыми требованиями - запретить, задавить, нипущать: 

Мы призываем все лаборатории ИИ немедленно свернуть обучение систем ИИ мощнее GPT-4 как минимум на полгода. Системы искусственного интеллекта, потенциально  соперничающие с человеком, могут представлять глубинную опасность для общества и человечества. Это показали обширные исследования и признано ведущими лабораториями ИИ.  Как отмечено в общепризнанных Асиломарских принципах, продвинутый ИИ может повлечь за собой коренную перемену в жизни на Земле, поэтому его следует планировать и управлять  им с должным тщанием и соответствующими ресурсами. Увы, надлежащего уровня планирования и управления мы не наблюдаем — наоборот, за последние месяцы лаборатории  искусственного интеллекта втянулись в неуправляемую гонку по разработке и внедрению систем машинного обучения, которые непонятны, непредсказуемы и неподконтрольны никому — даже их создателям. Современные системы искусственного интеллекта постепенно становятся конкурентоспособными в решении общих задач, и мы должны задаться вопросом: можем ли мы позволить, чтобы машины заполоняли наши информационные каналы  пропагандой и неправдой? Надо ли автоматизировать все подряд рабочие места — даже те, что приносят удовлетворение? Надо ли развивать нечеловеческий разум, который в  ъконечном счете превзойдет нас числом, перехитрит и заменит как безнадежно устаревших? Можем ли мы рисковать утратой контроля над всей нашей цивилизацией? Такие решения  нельзя отдавать на откуп технологическим лидерам, которых никто не выбирал. Мощные системы искусственного интеллекта следует разрабатывать лишь в том случае, если мы  полностью уверены, что сами они принесут пользу, а сопутствующие риски окажутся управляемыми. Эта уверенность должна быть оправдана и крепнуть с ростом потенциальных последствий.  В недавнем заявлении о развитии ИИ компания OpenAI признала: "В какой-то момент перед обучением будущих систем может понадобится независимая оценка, а перед разработкой самых передовых из  них — ограничение скорости роста вычислений". Мы согласны. И этот момент настал. Поэтому мы призываем все лаборатории немедленно свернуть обучение систем ИИ мощнее GPT-4 как минимум на полгода.  Этот перерыв должен быть публичным и достоверным и соблюдаться всеми ключевыми участниками. Если договориться об этом в кратчайшие сроки не удастся, правительства должны вмешаться и ввести мораторий. Лаборатории ИИ и независимые эксперты должны воспользоваться этим перерывом для совместной разработки и внедрения общих протоколов безопасности при проектировании и разработке продвинутых систем ИИ,  которые будут тщательно проверяться и контролироваться независимыми сторонними экспертами. Эти протоколы должны гарантировать однозначную безопасность поддерживающих их систем.  Это означает не паузу в развитии ИИ как такового, а лишь приостановку опасной погони за все более крупными и непредсказуемыми моделями черного ящика, чьи возможности еще только проявляются. Исследования и разработки в области ИИ должны быть переориентированы, чтобы сделать современные мощные системы более точными, безопасными, объясняемыми, прозрачными, надежными, согласованными, безотказными и верными. Параллельно разработчики должны в сотрудничестве с политиками значительно ускорить разработку надежных систем управления ИИ. В них должны войти как минимум следующие элементы: новые, дееспособные регулирующие органы по вопросам ИИ;  надзор и отслеживание высокопроизводительных систем ИИ и больших массивов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить оригинал от синтезированного продукта и отслеживать утечки моделей;  надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и, наконец, обеспеченные ресурсами институты для преодоления серьезных  экономических и политических потрясений в результате деятельности ИИ (особенно для демократий). В будущем благодаря ИИ человечество сможет добиться процветания. Если мы преуспеем в создании мощных систем, нас ждет "лето ИИ", когда мы будем пожинать плоды,  разработав эти системы ради общего блага и дав обществу возможность адаптироваться. Общество уже останавливало применение других технологий с потенциально катастрофическими для себя последствиями. Мы можем повторить это и здесь. Давайте же вместе радоваться "лету ИИ", а не бросаться очертя голову в осень. Йошуа Бенжио, лауреат премии Тьюринга за развитие глубокого обучения, глава Монреальского института алгоритмов обучения Стюарт Рассел, профессор компьютерных наук Университета Беркли, директор Центра интеллектуальных систем и соавтор учебника "Искусственный интеллект: современный подход" Илон Маск, генеральный директор SpaceX, Tesla и Twitter  Стив Возняк, сооснователь Apple

Источник:

 

 

Хочу выразить благодарность ресурсу ИноСМИ, за перевод сей открытой цидули от светлоликих. Особенно здесь забавляет требование немедленно заморозить все исследования в области ИИ, а в конце идет призыв погрузиться в лето ИИ, избежав осени. Ну, это на самом деле обычная либеральная тактика - избивать человека, крича при этом во все горло "Не бейте меня!". 

Куда как интереснее здесь провести параллели с недавним кейсом из 2017-го, когда двое ученых, Марек Карлайнер из Университета Тель-Авива и Джонатан Рознер из Чикагского университета, обнаружили что на кварковом уровне, есть свой аналог термоядерной реакции, причем количество высвобождаемой при этом энергии, в разы больше. Причем, что самое интересное, как сии ученые мужи сами признались, когда  они обнаружили данное явление, первой их реакцией было желание немедленно засекретить и скрыть свое открытие от общественности. Ибо этим двоим (а надо отметить, что среди ученых очень сильны левацкие настроения), тут же пригрезились ужасные частные военные корпорации, которые немедленно сделают из этого феномена ужасную, недопустимую с левацкой точки зрения вещь – оружие. Очевидно, данные физики застряли в середине 1940-х и не знают, что в нашем двадцать первом веке, акцент разработки вооружений, давно сместился с ОМП на высокоточное вооружение. К счастью, выяснилось что кварковый термояд никак нельзя практически использовать: прелестные кварки, которые необходимы для реакции, живут всего одну пикосекунду, так что их невозможно собрать в количестве необходимом для того чтобы получить какой-либо практический результат от обнаруженного явления. Так что нам, простым смертным, так и быть, разрешили узнать о данном открытии.

Здесь мы имеем на самом деле схожую ситуацию: образованные, просвещенные люди, возомнили что на основании того что у них есть диплом о высшем образовании, они имеют моральное право решать за человечество, что ему можно знать, а что пока еще "рано". Какими технологиями можно владеть, а какими нельзя.

Полагаю, современному обществу нужно развенчание мифа о том, что наука якобы делает нашу жизнь лучше. Нет, нашу жизнь делают лучше технологии и инженеры их разрабатывающие. Наука же (во всяком случае современная) нам подарила исключительно климатический алармизм, ковидобесие и прочие вещи, отнюдь не улучшающие нашу жизнь. И когда инженеры, вроде сотрудников OpenAI, даруют нам вещи, способные совершить новую революцию, наукомани тут же рвутся ее запретить. 

Категория: Black Pill | Просмотров: 153 | Добавил: hexenhammer-2 | Теги: GPT, ИИ-фобия, илон маск, ии, искуcственный интеллект, ChatGPT | Рейтинг: 0.0/0
Всего комментариев: 0
avatar