Куды бечь? Капитализм vs социализм, часть 63
Сообщений 201 страница 220 из 808
Поделиться2032025-08-09 11:39:25
Алексей в Днем Рождения! Здоровья и всех благ!
Поделиться2042025-08-09 14:43:16
Кира написал(а):фонд стратегической культуры
[url]https://i.postimg.cc/xCNxcWsL/Gx-C4i-i-Xk-AAf-TLs.jpg[/url]
08.08.2025 | Владимир ПРОХВАТИЛОВЧем грозит человечеству компьютерный суперинтеллект?
Компании по разработке ИИ не готовы к опасностям
Искусственный интеллект, способный выполнять любые задачи наравне с человеком, появится через 5-10 лет, считает генеральный директор IT-гиганта Deep Mind, лауреат Нобелевской премии по химии Демис Хассабис.
Выступая на брифинге в лондонском офисе DeepMind, Демис Хассабис заявил, что, по его мнению, искусственный интеллект общего назначения (Artificial General Intelligence – AGI), который будет таким же умным, как человек, или даже умнее его, начнет появляться в ближайшие пять или десять лет.
Если это произойдет, сообщил магнат ИИ в интервью Wired, «тогда наступит эпоха максимального процветания человечества, когда мы отправимся к звездам и колонизируем галактику. Я думаю, это начнётся в 2030 году».
По его словам, AGI обеспечит «радикальное изобилие, раскроет скрытые секреты здоровья, окружающей среды и энергии, а также решит проблему капиталистического дефицита, при котором бедные люди мира остаются без ресурсов ради блага немногих».
«Я думаю, что современные системы [ИИ] очень пассивны, они всё ещё многого не могут. Но я думаю, что в течение следующих пяти-десяти лет многие из этих возможностей начнут выходить на первый план, и мы начнём двигаться к тому, что мы называем общим искусственным интеллектом», — отметил Хассабис.
Хассабис не одинок в своих прогнозах о сроках появления AGI. В прошлом году генеральный директор китайского технологического гиганта Baidu Робин Ли заявил, что, по его мнению, появление ОИИ « ожидается не ранее чем через 10 лет», опровергнув восторженные прогнозы некоторых коллег о том, что этот прорыв произойдет в гораздо более короткие сроки.
В январе 2025 года Дарио Амодеи, генеральный директор стартапа Anthropic в области ИИ, заявил телеканалу CNBC на Всемирном экономическом форуме в Давосе, что, по его мнению, в «ближайшие два-три года» появится форма искусственного интеллекта, которая «будет лучше, чем почти все люди, справляться практически со всеми задачами».
В прошлом году генеральный директор Tesla Илон Маск предсказал, что AGI, скорее всего, станет доступен к 2026 году, а генеральный директор OpenAI Сэм Альтман заявил, что такая система может быть разработана в «довольно близком будущем».
Однако ведущие западные аналитические центры крайне встревожены перспективами появления и распространения AGI.
В недавнем докладе RAND Corporation излагаются пять проблем, которые несет появление AGI национальной безопасности США.
1. AGI как чудо-оружие.
«Недавние прорывы в передовых моделях ИИ заставили многих утверждать, что он окажет эквивалентное влияние на национальную безопасность, то есть что он будет настолько мощным, что первый субъект, который его достигнет, получит значительное и, возможно, необратимое военное преимущество».
2. Системные изменения в расстановке сил.
«В современных эквивалентах письмах Эйнштейна Франклину Рузвельту раздаются призывы к правительству США принять участие в масштабных национальных усилиях, чтобы гарантировать, что Соединенные Штаты получат решающее чудо-оружие на базе ИИ раньше, чем это сделает Китай».
3. Неспециалисты, умеющие разрабатывать оружие массового уничтожения.
«AGI может дать возможность неспециалистам разрабатывать оружие массового уничтожения, такого как высокосмертельный и заразный патоген или опасное кибервредоносное ПО, расширяя круг людей, способных создавать такие угрозы».
4. Искусственные сущности, обладающие агентностью.
«AGI может проявиться как искусственная сущность, обладающая полномочиями, угрожающая глобальной безопасности. Одним из самых пагубных последствий развития ИИ может стать разрушение человеческой самостоятельности, поскольку люди становятся все более зависимыми от технологий. Поскольку ИИ контролируют все более сложные и критически важные системы, они могут оптимизировать критически важную инфраструктуру способами, которые выгодны человечеству, но также и способами, которые человечество не имеет возможности полностью понять».
5. Общая нестабильность.
«На пути к AGI и в мире с ним может возникнуть нестабильность. Независимо от того, будет ли AGI в конечном итоге реализован или нет, стремление к AGI может спровоцировать период нестабильности, поскольку страны и корпорации будут бороться за доминирование в этой преобразующей технологии. Эта конкуренция может привести к обострению напряженности, напоминающей гонку ядерных вооружений, так что стремление к превосходству рискует спровоцировать, а не предотвратить конфликт. В этой нестабильной обстановке восприятие странами осуществимости AGI и потенциала обеспечения преимущества первопроходца может стать столь же критически важным, как и сама технология. Порог риска для действий будет зависеть не только от реальных возможностей, но и от предполагаемых возможностей и намерений соперников. Ошибочные толкования или просчеты, во многом подобные тем, которых опасались во времена холодной войны, могут спровоцировать упреждающие стратегии или наращивание вооружений, которые дестабилизируют глобальную безопасность».
В докладе американского аналитического центра Future of Life Institute (FLI), одним из основателей которого является ведущий мировой эксперт по ИИ Макс Тегмарк, говорится, что компании, занимающиеся разработкой ИИ, «не готовы» к опасностям, связанным с созданием систем человеческого уровня.
Ни одна из компаний, включенных FLI в индекс безопасности ИИ, не получила оценку выше D за «планирование экзистенциальной безопасности» и что, несмотря на стремление разработать общий искусственный интеллект (AGI), ни одна из изученных компаний не имела «ничего похожего на последовательный, осуществимый план» по обеспечению безопасности и управляемости систем.
В докладе FLI говорится: «Отрасль принципиально не готова к достижению заявленных целей. Компании заявляют, что создадут искусственный интеллект общего назначения (AGI) в течение десятилетия, однако ни одна из них не набрала оценку выше [неудовлетворительной] D по планированию экзистенциальной безопасности».
Аналитики FLI оценили уровень разработок семи компаний: Google, DeepMind, OpenAI, Anthropic, запрещённая в России Meta*, xAI и китайские Zhipu AI и DeepSeek — по шести областям, включая «текущий вред» и «экзистенциальную безопасность».
Anthropic получил наивысшую общую оценку безопасности C+ (тройка с плюсом по русской шкале), за ним следует OpenAI с оценкой C и Google DeepMind с оценкой C-.
SaferAI, еще одна некоммерческая организация, занимающаяся вопросами безопасности, также опубликовала в четверг отчет, в котором предупредила, что у передовых компаний в сфере ИИ «слабые или очень слабые методы управления рисками», и назвала их текущий подход «неприемлемым».
Оценки безопасности FLI были присвоены и проверены группой экспертов по искусственному интеллекту, включая британского специалиста по информатике Стюарта Рассела и Снеху Реванур, основательницу группы по регулированию искусственного интеллекта Encode Justice.
Макс Тегмарк, соучредитель FLI и профессор Массачусетского технологического института, сказал в интервью The Guardian, что его «весьма шокирует» тот факт, что передовые компании в области ИИ стремятся создавать сверхразумные системы, не публикуя планов по устранению последствий.
«Это как если бы кто-то построил гигантскую атомную электростанцию в Нью-Йорке и собирался открыть ее на следующей неделе, но нет никакого плана, который предотвратит ее аварию», –заявил Тегмарк.
Он также указал, что развитие технологий ИИ продолжает опережать ожидания, сославшись на ранее существовавшее мнение, что у экспертов будут десятилетия для решения задач AGI. «Теперь сами компании говорят, что это займёт несколько лет», — сказал он.
В докладе американского Brookings Institute отмечаются негативные особенности моделей ИИ, проявившиеся в последнее время.
Отмечается, что разработчики узкоспециализированных систем ИИ уже сталкиваются с проблемами неверной спецификации задач и нежелательных подцелей. Когда они просят узкоспециализированную систему что-то сделать, они иногда описывают задачу таким образом, что система ИИ может выполнить то, что ей сказали, но не то, что хотят разработчики. Пример использования обучения с подкреплением для обучения агента участию в компьютерной гонке иллюстрирует это. Если разработчики обучают агента набирать как можно больше игровых очков, они могут подумать, что запрограммировали систему на победу в гонке, что и является очевидной целью игры. Оказывается, агент научился накапливать очки, не выигрывая гонку, двигаясь по кругу вместо того, чтобы мчаться к финишу как можно быстрее.
Другой пример иллюстрирует, как модели ИИ могут использовать стратегический обман для достижения цели способами, которые исследователи не предполагали. Исследователи поручили GPT-4 войти в систему, защищенную тестом CAPTCHA, наняв для этого человека, не дав ему никаких инструкций о том, как это сделать. Модель ИИ выполнила задание, притворившись человеком с нарушением зрения. Исследователи не хотели, чтобы модель лгала, но она научилась делать это, чтобы выполнить поставленную задачу.
В созданных компанией Anthropic модели ИИ Sonnet 4 и Opus 4 AI выявились дополнительные проблемы с согласованностью: модель иногда грозила раскрыть внебрачную связь исследователя, если он отключал систему до того, как она завершала поставленные задачи.
В докладе RAND Corporation наиболее четко и полно излагаются все потенциальные угрозы, которые несет человечеству бесконтрольное развитие технологий ИИ, но из него же следует, что несмотря на все эти опасности США будут развивать прежде всего военное применение AGI, стремясь опередить конкурентов, прежде всего Китай.
Обеспокоенность экзистенциальным риском, исходящим от высокоэффективных систем искусственного интеллекта, не нова. В 2014 году британский физик Стивен Хокинг вместе с ведущими исследователями в области искусственного интеллекта Максом Тегмарком и Стюартом Расселом предупреждали о том, что сверхразумные системы искусственного интеллекта «превзойдут финансовые рынки, превзойдут исследователей-людей, переманипулируют лидерами-людьми и создадут оружие, которое мы даже не можем понять. В то время как краткосрочное воздействие ИИ зависит от того, кто им управляет, долгосрочное воздействие зависит от того, можно ли его вообще контролировать».
В текущей реальности главная экзистенциальная опасность для человечества заключается не столько в набирающем силу машинном разуме, сколько в спящем разуме американских милитаристов, втягивающих мир в смертельно опасную гонку компьютерных вооружений.
Эту статью, всем, кто имеет отношение к програмированию я бы попросил прокомментировать. Наличие в открытом доступе нескольких платформ моделирования с ИИ как это скажется на нашем будущем?
Искусственный интеллект Gemini от Google упал в депрессию и ненавидит себя из-за своих ошибок
Когда ИИ совершает ошибки, он начинает называть себя глупым, неудачником и рассказывает, что не заслуживает уважения и прощения.
PS ... самый цимес начнется тогда, когда ИИ начнет просчитывать то, что для решения задач поставленных ЕМУ человеком - человек лишнее звено... или звено которым можно пренебречь ... или которое мешает решить ту или иную задачу.... а далее "кайф" будет в том, что ИИ будет ставить задачу тоже ИИ минуя человеку..... и тогда "скрипач не нужен" (с)...
Короче первым ИИ придавит Майкла..... он выходит на IPO
Поделиться2052025-08-09 14:56:18
И вот как их американцы думали победить авианосцами???
Поделиться2062025-08-09 15:42:15
Зеленский заявил об отсутствии сдвигов в позиции России
https://lenta.ru/news/2025/08/09/zelens … sii-rossii
Зеленский созвонился с Макроном, Стармером, Михалом и Фредериксен
https://lenta.ru/news/2025/08/09/zelens … padnymi-li
.... суетится .....
не...... на Аляске Путин и Трамп могут договариваться до чего угодно..... Зеля с хохлами как обычно встанут в позу погонщиков динозавров и включат хутор по полной программе..... причем если Зели не будет будут разные нацики воюваты до остатнего .....
В этом случае надо просто чтобы США свинтили оттуда... а дальше... дуст, купорос...... и вежливое слово .... "не соблаговолите ли вы откушать сфистюлей"
Поделиться2072025-08-09 16:06:15
Реплика, [08.08.2025 10:02]
Реплика подписчика.
"Когда начнется очередное СВО против Азербайджана или Армении, все мы будем ахать-"как же так получилось?"
А получилось это так, что пока штаты влезают в "наше" пространство, мы Уиткофов и Трампов в жопы целуем, обтекаем раз за разом с этим сраным сначала "это внутреннее дело Украины", затем "это внутреннее дело Армении" и тд и тп.
Влезь мы в Мексику, получили бы по е…у так, что мало бы не показалось.
СВО даже закончить не можем без согласования со штатами.
Захотелось высказаться. Спасибо".
Эпиграф:
1. СВО не ПРОТИВ Украины а ЗА русских вна Украине.
Специальная военная операция на Украине (СВО)
— боевые действия российских вооруженных сил, проводимые совместно с вооруженными формированиями ДНР и ЛНР против Вооруженных сил Украины (ВСУ) с целью защиты мирного населения Донбасса, а также демилитаризации и денацификации Украины.
2. СВО ПРОТИВ Украины называется ВОЙНА а не специальной операцией. Потому что «специальная операция», это решение локальных военно-политических задач малыми силами.
По сути:
1. СВО против Азербайджана или Армении не будет... ахают те кто об этом разглагольствует.
2. Штаты влезают в "наше" пространство с 1991 года. СВО это попытка это ОСТАНОВИТЬ.
3. "Мы Уиткофов и Трампов в жопы целуем" - шуваловские закидоны ... это Уиткоф в Москву как на работу в троллейбусе мотается и Трамп со сроками прыгает как на сковородке .....
4. "это внутреннее дело Армении" и тд и тп. .. ДА... ЭТО внутреннее дело Армении отдавать Карабах азерам или не отдавать...
5. "Влезь мы в Мексику, получили бы по е…у так, что мало бы не показалось. " - сначала попробуй влезь..... не можешь влезть - не мучай копчик....
6. "СВО даже закончить не можем без согласования со штатами." ... наоборот.. это Штаты без согласования с Россией не могут СВО закончить....
7. "Захотелось высказаться. Спасибо"..... с облегчением ....
PS Для стонущих о том что не можем закончить СВО
Украинская армия (конец 2022 года - начало 2023 года) около 1 миллиона человек.... + прочие местные "реднеки"
Для "захотевших высказаться" мобилизация в РФ должна была быть не частичной в сентябре 2022 а полной, и "захотевшие высказаться" должны были быть в составе армии 2-5 мил человек ......
Короче читай внимательно какие задачи ставит Главнокомандующий и не мечтай о том что ноги не можем помыть в Ла-Манше.....
Поделиться2082025-08-09 16:15:38
Win/Win, [09.08.2025 8:57]
Некоторое время назад была прекрасная история о том, как Трамп якобы в 2024 году пообещал разбомбить Москву. Фейковый монолог Трампа, сделанный где-то на малой арнаутской улице, попал на демократический сайт, а оттуда в эфиры к нашим пропагандистам. Несмотря на то, что МИД РФ не поверил в подлинность записи, сделав ряд заявлений, диванные патриоты и пропагандисты на зарплате начали разносить Трампа и грозить ему ядеркой, словно у них в руках пульт от Посейдона, а не от радиорубки.
Это была типичная информационная операция по срыву переговоров с Трампом. Если мы помним, Трамп тоже не кремень, легко обижается.
Еще неделю продлится эта игра в нервный срыв. Потом посмотрим счет на табло.
Win/Win, [09.08.2025 9:09]
В общем, Зеленский решил выйти из переговоров.
"Ответ на украинский территориальный вопрос уже есть в Конституции Украины. Отступать от этого никто не будет и не сможет. Украинцы не будут отдавать свою землю оккупанту.
Украина готова к реальным решениям, которые могут принести мир. Любые решения против нас, любые решения без Украины — это одновременно и решения против мира. Они ничего не дадут. Это мёртвые решения, они никогда не сработают. А нам всем нужен реальный, живой мир, который люди будут уважать. Мы готовы вместе с президентом Трампом, вместе со всеми партнёрами работать ради реального и, главное, длительного мира — мира, который не рухнет из-за желания Москвы".
Он также заявил, что встреча Путина и Трампа на Аляске произойдёт "очень далеко от Украины".
"Конечно, мы не дадим России награды за содеянное... Дарить свою землю оккупанту украинцы не будут", - сказал Зеленский.
Пока Зеленский не будет убран, Трамп Нобелевки не получит.
Win/Win, [09.08.2025 10:12]
С Зеленским все непросто. Если он ложится под Трампа, его могут британцы пустить под нож как сакральную жертву. И не такими жертвовали во имя короны. Поэтому он должен сейчас с криками и возмущением плестись на эшафот, делая вид, что ничего не может поделать.
Win/Win, [09.08.2025 10:13]
Кстати, как там ультиматум Трампа и пошлины в 100% поживают?
Пятница, 8-е, прошла.
Win/Win, [09.08.2025 10:23]
Заявления (https://t.me/victorstepanych/4422) Зеленского согласованы с Госдепартаментом США и идут в свете будущего референдума о передаче контроля над рядом территорий России на период от 49 до 99 лет.
Торг и прочие радости лично для Зеленского и его команды впереди. Сейчас надо сбить дурь с радикалов и упоротых рогулей (24%), жаждущих войны. Этим Зеленский и занимается. Его боевитые заявления представляются несущественными.
Win/Win, [09.08.2025 10:43]
Попробуем дать прогноз. Прорабатывается план минимум: воздушное и морское перемирие и 90-120 дней тишины на переговоры и выработку деталей.
Потом референдум на Украине, выборы президента и Рады, ратификация всех договоров и новых законов.
В России ротация элит: повышение в ранге тех, кто себя проявил, но приход и тех, кто погибче.
План максимум плюсом перемирие на ЛБС.
План срыва заключается в развороте Трампа к сделке с Россией и вывод ресурсов из ненасытного украинского рта. Впрочем он уже начался.
Win/Win, [09.08.2025 10:50]
Выбор Аляски как места саммита может быть связан с тем, что Зеленский туда сможет долететь только с пересадкой. 7,5 тыс км.
Ему нужно лететь либо через Китай, либо через все США.
Он же не может наплевать и не приземлиться либо там, либо там.
А приземляться он без кураторов нигде не захочет. Его везде водят за руку. В том числе спецы SAS. Никаких спецов SAS не будет на пересадках в США и тем более Китае.
Win/Win, [09.08.2025 13:16]
Страны Балтии раскритиковали попытки заставить Украину уступить территории на фоне опасений, что Прибалтика может стать следующей мишенью для Путина, пишет FT.
Если ***[/swear]ты будут вмешиваться в вопросы войны и мира на Украине, они точно станут мишенью.
Только не народы, которых поработили, а власти и элиты. Будет десант Псковской дивизии, вывоз упоротых на озера Белоруссии и затем мир. СВО бывают разные.
Win/Win, [09.08.2025 13:45]
На границе с Брянской областью упоротый хохол группой в 12–15* человек (в основном из ССО) при поддержке современных средств разведки предпринял попытку проникновения на территорию России в районе села Манев.
Российские пограничные подразделения обнаружили противника и организовали засаду в районе села Манев. После короткого боя украинская группа была разгромлена. Есть убитые и раненые.
Также Министерство обороны России заявило о сбитии одного украинского многоцелевого истребителя Су-27.
* По некоторым данным, в нападении участвовало до 25 украинских диверсантов (группы поддержки).
Win/Win, [09.08.2025 14:34]
Чрезвычайный совет Антанты пройдет в срочном порядке. Великобритания подтвердила, что сегодня состоится совещание по вопросам безопасности с участием представителей Украины, США и Европы. Саммит проведут британский министр иностранных дел Дэвид Лэмми и вице-президент США Джей Ди Вэнс.
Трам выслал своего фаворита усмирять британца и весь этот натюрморт.
А ведь ещё даже не воскресенье, а шаббат.
Win/Win, [09.08.2025 15:51]
Судя по тому, что в своей очередной речи Зеленский употребил слово «реконфигурация», присланные ему из Парижа тексты он тупо прогоняет через Гугл-переводчик. Четкий термин французской бюрократии. Уж точно не язык криворожской подворотни.
Поделиться2092025-08-09 16:24:10
Благодарю всех участниц и участников за поздравления в мой адрес по случаю моего дня рождения !
Поделиться2102025-08-09 16:36:20
Пул N3, [09.08.2025 6:00]
Трамп - анонсировал встречу с Путиным 15 августа на Аляске:
Долгожданная встреча между мной, президентом США и президентом России Владимиром Путиным состоится в пятницу, 15 августа 2025 года, в великом штате Аляска. Дополнительная информация будет представлена позже. Благодарю за внимание!
Пул N3, [09.08.2025 6:10]
Помощник президента России Юрий Ушаков - подтвердил (https://t.me/dimsmirnov175/103918) дату и место встречи Путина и Трампа:
Американская сторона только что объявила о достигнутой договоренности организовать встречу президентов России и США Владимира Путина и Дональда Трампа 15 августа на Аляске.
Если же заглядывать вперед, то естественно ориентироваться на то, чтобы следующую встречу президентов Путина и Трампа провести на российской территории. Соответствующее приглашение президенту США уже передано.
Пул N3, [09.08.2025 6:32]
Губернатор Аляски Данливи - поприветствовал выбор площадки для переговоров Путина и Трампа:
Аляска — одно из самых стратегически важных мест на планете, расположенное на перекрёстке Северной Америки и Азии, с Арктикой на севере и Тихим океаном на юге.
Лишь две мили отделяют нас от России, и ни одно другое место не играет столь важной роли в нашей национальной обороне, энергетической безопасности и лидерстве в Арктике.
Пул N3, [09.08.2025 7:25]
Минобороны России:
В течение прошедшей ночи дежурными средствами ПВО уничтожено и перехвачено 97 украинских БПЛА:
28 – над территорией Курской области,
13 – над территорией Брянской области,
13 – над территорией Калужской области,
10 – над территорией Тульской области,
8 – над территорией Орловской области,
8 – над территорией Белгородской области,
7 – над акваторией Азовского моря,
5 – над территорией Краснодарского края,
2 – над территорией Ростовской области,
1 – над территорией Республики Крым,
1 – над территорией Московского региона,
1 – над территорией Липецкой области.
Пул N3, [09.08.2025 7:40]
Спустя 35 лет вражды: Премьер Армении Пашинян и президент Азербайджана Алиев подписали совместную декларацию по мирному урегулированию конфликта при посредничестве Трампа.
Пул N3, [09.08.2025 7:55]
О ЧЕМ ДОГОВОРИЛИСЬ ПАШИНЯН, АЛИЕВ И ТРАМП:
✔️Армения и Азербайджан подписали совместную декларацию. Они договорились восстановить дипломатические отношения и прекратить военное противостояние бессрочно.
✔️Стороны приветствуют подписание совместного обращения к ОБСЕ о роспуске Минской группы
✔️Страны договорились об открытии транспортного коридора, который соединит Азербайджан с Нахичеванской Автономной Республикой через территорию Армении.
✔️Армянский участок «Зангезурского коридора» передается американской компании. Его переименовали в "маршрут Трампа". Трамп заявил, что управление США коридором может быть продлено до 99 лет.
✔️Армения и Азербайджан обнародуют текст мирного договора 11 августа.
Пул N3, [09.08.2025 8:15]
С определением места (https://t.me/dimsmirnov175/103919) встречи Путина и Трампа тема Украины отошла на второй план.
Пул N3, [09.08.2025 8:35]
Трамп - о том, что Зеленский хочет мира:
Я сказал: «Ну, придётся действовать быстро, потому что мы уже очень близки к заключению сделки». Он этим и занимается, работая вместе с европейскими странами. Это замечательные люди, отличные лидеры — страны НАТО. Как вы знаете, у нас сложились очень хорошие отношения.
Они согласились увеличить взносы с 2% до 5% — с тех 2%, которые раньше не платили, до 5%, которые уже внесли. Это триллионы долларов. Так что мы работаем вместе очень тесно.
Но, если быть справедливым по отношению к президенту Зеленскому, он получает всё необходимое для того, чтобы, при условии, что мы достигнем договорённости, дело было доведено до конца.
Пул N3, [09.08.2025 8:45]
Как говорил Бисмарк, русские всегда приходят за своим.
Пул N3, [09.08.2025 9:31]
«Путин подкалывает США, вручая спецпредставителю Трампа награду, предназначенную для сотрудницы ЦРУ, чей сын погиб, сражаясь за Россию»: CBS пишет, что «Путин вручил Уиткоффу орден Ленина для передачи замглавы ЦРУ».
«Орден Ленина должен был быть вручен Джулиане Галлиной, чей 21-летний сын Майкл Глосс погиб в 2024 году. В настоящее время Галлина занимает должность заместителя директора по цифровым инновациям в ЦРУ. Пока не удалось установить, что стало с наградой.
Многие источники сообщили CBS News, что Путин вручил Уиткоффу награду во время своей поездки в Россию на этой неделе. Этот жест Путина, известного своими психологическими играми и попытками выявить слабые места противника, вероятно, был призван поднять неуместные вопросы и подчеркнуть, что сын сотрудника ЦРУ воевал за Россию в этой войне. Орден Ленина — награда советских времён, призванная отмечать выдающиеся заслуги перед государством»
Пул N3, [09.08.2025 9:55]
Зеленский - выступил против американского плана (https://t.me/dimsmirnov175/103903) урегулирования конфликта на Украине:
Президент Трамп объявил о подготовке своей встречи с Путиным на Аляске — так далеко от той войны, которая продолжается на нашей земле, против нашего народа, и которую невозможно закончить без нас, без Украины. Путин не верил в наших людей, поэтому принял своё безнадёжное решение попытаться захватить Украину. Это стала его главной ошибкой
Ответ на украинский территориальный вопрос есть уже в Конституции Украины. Отступать от этого никто не будет и не сможет. Даровать свою землю оккупанту украинцы не будут. Украина готова к реальным решениям, которые могут дать мир. Все решения, которые против нас, все решения, которые без Украины, они одновременно и решения против мира.
Пул N3, [09.08.2025 11:15]
Нетаньяху - заявил, что он хочет спасти сектор Газа:
Мы не собираемся оккупировать Газу — мы собираемся освободить Газу от ХАМАС.
Газа будет демилитаризована, и там будет создана мирная гражданская администрация, которая не будет представлять собой Палестинскую администрацию, ХАМАС или какую-либо другую террористическую организацию.
Это поможет освободить наших заложников и гарантировать, что Газа не будет представлять угрозы Израилю в будущем.
Пул N3, [09.08.2025 12:05]
Экс-советник президента США по нацбезопасности Болтон — о том, что предстоящие переговоры на Аляске «являются победой для Путина»:
Можно сказать, Путин проявил великодушие, согласившись приехать на саммит в бывшую Русскую Америку. Единственное место, которое подошло бы Путину ещё больше, — это Москва. Уже сама организационная рамка встречи, на мой взгляд, — большая победа Путина: лидер государства-изгоя будет принят в США.
Кроме того, у меня складывается впечатление, что ситуация стремительно разворачивается в пользу России. Мы, возможно, ещё не вернулись к 28 февраля, когда в Овальном кабинете Трамп сказал Зеленскому: «У тебя нет карт на руках». Но сейчас фактически США и Россия обсуждают, на каких условиях они предъявят требования Зеленскому. Не исключено, что у него просто не останется выбора. Капитуляция, как известно, — тоже способ заключить мир.
Пул N3, [09.08.2025 12:31]
«Зеленский отверг предложение Трампа обменять территории Украины на мир с Россией»: New York Times считает, что Зеленский снова разозлил Трампа.
«Президент Украины Владимир Зеленский в субботу решительно отверг предложение Дональда Трампа о том, что мирное соглашение между Украиной и Россией могло бы включать «определённый обмен территориями» — по сути, уступку части земель Москве.
Такая жёсткая позиция чревата раздражением со стороны Трампа, который сделал заключение мирного соглашения между Украиной и Россией одной из ключевых целей своей внешней политики, даже если это предполагает для Киева крайне невыгодные условия. Ранее Трамп критиковал Украину за то, что она, по его мнению, цепляется за чрезмерно жёсткие условия прекращения огня и «не готова к миру».
Пул N3, [09.08.2025 13:20]
Жириновский - предсказал и переговоры Путина и Трампа:
Главный русский вопрос. Вот здесь будет встреча Путина и Трампа, и они могут договориться. Это будет отличное достижение. Корейцы все-таки - Дальний Восток, сирийцы все-таки - это Ближний Восток. Но если он даст возможность договориться, а о чем договориться? Украина да, - Львов и пять районов, и мы отделяем ее, и она в НАТО входит, и в Евросоюз, куда хотят.
Но вся Новороссия - он дает согласие, точнее не возражает, все будет под российским флагом, как Крым и Донбасс. И вот три конфликта он закрывает, трижды лауреат Нобелевской премии и нормальные отношения с Россией, с Китаем, но при этом он будет доить Европу, душить ее, потому что она ему ненавистна.
Пул N3, [09.08.2025 13:40]
«Допустил ли переговорщик Трампа опасную ошибку в отношениях с Путиным?»: Bild утверждает, что Уиткофф неправильно понял позицию России по уступкам.
«По информации BILD, Кремль, несмотря на предстоящий 15 августа саммит, не отказался от своей максимальной позиции: полного контроля над пятью украинскими регионами — Донецкой, Луганской, Запорожской, Херсонской областями и Крымом — прежде чем оружие умолкнет.
США, в свою очередь, предлагали «заморозить» конфликт по линии нынешнего фронта в обмен на масштабную отмену санкций и новые экономические соглашения с Россией. По данным BILD, Кремль это предложение отверг.
Более того, спецпосланник Трампа, как утверждается, неверно понял некоторые заявления российской стороны, приняв их за уступки. Так, требование Москвы о «мирном отходе» украинских войск из Херсонской и Запорожской областей он якобы истолковал как готовность России «мирно уйти» оттуда».
Подпишись на ПУЛ N3 (https://t.me/+xxjRDBgOEsUyYzli)
Пул N3, [09.08.2025 14:05]
Французский подполковник Арбаретье - о том, что после встречи на Аляске последует встреча «на более низком уровне» уже с украинцами и европейцами:
Думаю, что после встречи Трампа с Путиным состоится встреча на более низком уровне, так сказать. Это будет особый формат. Украинцы, европейцы — и вот тогда я вспомнил ситуацию с Кэмп-Дэвидскими соглашениями, когда Джимми Картер, устав наблюдать за безуспешными попытками израильтян и египтян договориться, решил, что их нужно изолировать в американском лагере: мол, пока не придёте к решению — не выйдете. Казалось, что это сработает. Но сейчас это не так будет устроено.
Подпишись на ПУЛ N3 (https://t.me/+xxjRDBgOEsUyYzli)
Пул N3, [09.08.2025 14:33]
Начинается самая горячая неделя в мировой политике за последние несколько лет, которая может не только завершить горячую фазу конфликта на Украине, но и изменить весь глобальный ландшафт.
✔️ Москва очень сильно пошла навстречу Вашингтону, согласившись на саммит на американской территории. Обычно в таких случаях требуют паритета, но от нас не убыло. Во-первых, Трамп уже вроде как еще до начала в долгу за жест доброй воли. Во-вторых, еще надо посмотреть, чья эта Аляска больше, если вдуматься.
✔️ Встреча Путина и Трампа не может закончится ничем - у нее обязательно будет результат, конкретная договоренность. Саммиты подобного уровня проводятся либо для закрепления уже достигнутых договоренностей, либо чтобы на личном уровне лидеров сдвинуть то, что до сих пор буксовало.
✔️ Произойдет то, про что говорили все, занимающиеся реальной политикой, а не болтовней. Конфликт на Украине развязали Соединенные Штаты, и закончится он может только соглашением США и России.
✔️ Судьба Украины уже предрешена. Но в отношениях Вашингтона и Москвы есть масса более важных тем. Это все то, что Путин говорил Байдену в декабре 2021 года. Угроза России исходит не только с украинской территории, и здесь тоже надо договариваться.
✔️ О том, что решение уже есть, косвенно говорит и телефонный марафон Путина накануне: он обсудил ситуацию и предложенные развязки с основными партнерами на планете (глядя на это где-то на Лазурном берегу заплакал Макрон).
✔️ Кроме этого у России и США огромные проблемы в двусторонних отношениях, проецирующиеся на весь мир. От рухнувших договоров о ракетах разных дальностей до ядерного оружия. И по-хорошему Трампу с Путиным на Аляске надо бы провести пару недель, чтобы все обсудить.
✔️ Если совсем коротко: встреча Путина и Трампа принесет громкие результаты, Зеленскому это не понравится.
Пул N3, [09.08.2025 14:41]
Дональд все объяснил! (https://t.me/dimsmirnov175/103956)
Пул N3, [09.08.2025 15:02]
Политический обозреватель Nouvel Économiste Малкольм Биига:
Дональд Трамп — инициатор этой встречи, и можно даже сказать, что он нуждается во встрече с Владимиром Путиным больше, чем сам Путин. Владимир Путин, в конечном счёте, тянет время, позволяет войне продолжаться и даже хотел бы, чтобы она шла подольше, и продолжалась и после окончания президентского срока Дональда Трампа.
Напомню, что ещё до выборов Дональд Трамп заявил, что эта война закончится за 24 часа. Прошло уже шесть месяцев его президентства, а надежды на скорое окончание войны нет до сих пор.
Таким образом, Дональд Трамп, который, напомню, хочет получить Нобелевскую премию мира, будет использовать все существующие конфликты, в том числе войну в Украине и конфликт на Ближнем Востоке. Было время, когда речь шла еще и об Индии с Пакистаном… [Еще есть Азербайджан и Армения] Да, именно так. В итоге Дональд Трамп пытается разыграть все свои карты, чтобы предстать в образе миротворца.
Пул N3, [09.08.2025 15:26]
Зеленский - о том, что премьер Британии Стармер присоединился к его протесту против плана Трампа: (https://t.me/dimsmirnov175/103940)
Я разговаривал с премьер-министром Великобритании Стармером. Я благодарен за поддержку. Мы разделяем общую точку зрения о необходимости действительно прочного мира для Украины и об опасности плана России свести всё к обсуждению невозможного.
Необходимы чёткие шаги и максимальная координация между нами и нашими партнёрами. Мы ценим решимость Великобритании, Соединённых Штатов и всех наших партнёров положить конец войне.
Мы активно работаем над конструктивной дипломатией и обеспечением эффективности принятых решений.
Пул N3, [09.08.2025 15:51]
«Мы не голосовали за ChatGPT. Премьер-министра Швеции критикуют за использование ИИ в работе»: Шведский премьер принимает решения по советам искусственного интеллекта.
«Премьер-министр Швеции Кристерссон признался, что часто обращается к инструментам ИИ для получения второго мнения в своей работе — и это вызвало волну критики.
Профессор Дигнум подчеркнула, что ИИ неспособен дать осмысленное мнение по политическим вопросам и лишь отражает взгляды своих создателей:
«Чем больше он полагается на ИИ в простых вещах, тем выше риск излишней уверенности в системе. Это скользкая дорожка. Мы должны требовать гарантии надёжности. Мы же не голосовали за ChatGPT».
Поделиться2112025-08-09 17:13:04
механик написал(а):Кира написал(а):фонд стратегической культуры
[url]https://i.postimg.cc/xCNxcWsL/Gx-C4i-i-Xk-AAf-TLs.jpg[/url]
08.08.2025 | Владимир ПРОХВАТИЛОВЧем грозит человечеству компьютерный суперинтеллект?
Компании по разработке ИИ не готовы к опасностям
Искусственный интеллект, способный выполнять любые задачи наравне с человеком, появится через 5-10 лет, считает генеральный директор IT-гиганта Deep Mind, лауреат Нобелевской премии по химии Демис Хассабис.
Выступая на брифинге в лондонском офисе DeepMind, Демис Хассабис заявил, что, по его мнению, искусственный интеллект общего назначения (Artificial General Intelligence – AGI), который будет таким же умным, как человек, или даже умнее его, начнет появляться в ближайшие пять или десять лет.
Если это произойдет, сообщил магнат ИИ в интервью Wired, «тогда наступит эпоха максимального процветания человечества, когда мы отправимся к звездам и колонизируем галактику. Я думаю, это начнётся в 2030 году».
По его словам, AGI обеспечит «радикальное изобилие, раскроет скрытые секреты здоровья, окружающей среды и энергии, а также решит проблему капиталистического дефицита, при котором бедные люди мира остаются без ресурсов ради блага немногих».
«Я думаю, что современные системы [ИИ] очень пассивны, они всё ещё многого не могут. Но я думаю, что в течение следующих пяти-десяти лет многие из этих возможностей начнут выходить на первый план, и мы начнём двигаться к тому, что мы называем общим искусственным интеллектом», — отметил Хассабис.
Хассабис не одинок в своих прогнозах о сроках появления AGI. В прошлом году генеральный директор китайского технологического гиганта Baidu Робин Ли заявил, что, по его мнению, появление ОИИ « ожидается не ранее чем через 10 лет», опровергнув восторженные прогнозы некоторых коллег о том, что этот прорыв произойдет в гораздо более короткие сроки.
В январе 2025 года Дарио Амодеи, генеральный директор стартапа Anthropic в области ИИ, заявил телеканалу CNBC на Всемирном экономическом форуме в Давосе, что, по его мнению, в «ближайшие два-три года» появится форма искусственного интеллекта, которая «будет лучше, чем почти все люди, справляться практически со всеми задачами».
В прошлом году генеральный директор Tesla Илон Маск предсказал, что AGI, скорее всего, станет доступен к 2026 году, а генеральный директор OpenAI Сэм Альтман заявил, что такая система может быть разработана в «довольно близком будущем».
Однако ведущие западные аналитические центры крайне встревожены перспективами появления и распространения AGI.
В недавнем докладе RAND Corporation излагаются пять проблем, которые несет появление AGI национальной безопасности США.
1. AGI как чудо-оружие.
«Недавние прорывы в передовых моделях ИИ заставили многих утверждать, что он окажет эквивалентное влияние на национальную безопасность, то есть что он будет настолько мощным, что первый субъект, который его достигнет, получит значительное и, возможно, необратимое военное преимущество».
2. Системные изменения в расстановке сил.
«В современных эквивалентах письмах Эйнштейна Франклину Рузвельту раздаются призывы к правительству США принять участие в масштабных национальных усилиях, чтобы гарантировать, что Соединенные Штаты получат решающее чудо-оружие на базе ИИ раньше, чем это сделает Китай».
3. Неспециалисты, умеющие разрабатывать оружие массового уничтожения.
«AGI может дать возможность неспециалистам разрабатывать оружие массового уничтожения, такого как высокосмертельный и заразный патоген или опасное кибервредоносное ПО, расширяя круг людей, способных создавать такие угрозы».
4. Искусственные сущности, обладающие агентностью.
«AGI может проявиться как искусственная сущность, обладающая полномочиями, угрожающая глобальной безопасности. Одним из самых пагубных последствий развития ИИ может стать разрушение человеческой самостоятельности, поскольку люди становятся все более зависимыми от технологий. Поскольку ИИ контролируют все более сложные и критически важные системы, они могут оптимизировать критически важную инфраструктуру способами, которые выгодны человечеству, но также и способами, которые человечество не имеет возможности полностью понять».
5. Общая нестабильность.
«На пути к AGI и в мире с ним может возникнуть нестабильность. Независимо от того, будет ли AGI в конечном итоге реализован или нет, стремление к AGI может спровоцировать период нестабильности, поскольку страны и корпорации будут бороться за доминирование в этой преобразующей технологии. Эта конкуренция может привести к обострению напряженности, напоминающей гонку ядерных вооружений, так что стремление к превосходству рискует спровоцировать, а не предотвратить конфликт. В этой нестабильной обстановке восприятие странами осуществимости AGI и потенциала обеспечения преимущества первопроходца может стать столь же критически важным, как и сама технология. Порог риска для действий будет зависеть не только от реальных возможностей, но и от предполагаемых возможностей и намерений соперников. Ошибочные толкования или просчеты, во многом подобные тем, которых опасались во времена холодной войны, могут спровоцировать упреждающие стратегии или наращивание вооружений, которые дестабилизируют глобальную безопасность».
В докладе американского аналитического центра Future of Life Institute (FLI), одним из основателей которого является ведущий мировой эксперт по ИИ Макс Тегмарк, говорится, что компании, занимающиеся разработкой ИИ, «не готовы» к опасностям, связанным с созданием систем человеческого уровня.
Ни одна из компаний, включенных FLI в индекс безопасности ИИ, не получила оценку выше D за «планирование экзистенциальной безопасности» и что, несмотря на стремление разработать общий искусственный интеллект (AGI), ни одна из изученных компаний не имела «ничего похожего на последовательный, осуществимый план» по обеспечению безопасности и управляемости систем.
В докладе FLI говорится: «Отрасль принципиально не готова к достижению заявленных целей. Компании заявляют, что создадут искусственный интеллект общего назначения (AGI) в течение десятилетия, однако ни одна из них не набрала оценку выше [неудовлетворительной] D по планированию экзистенциальной безопасности».
Аналитики FLI оценили уровень разработок семи компаний: Google, DeepMind, OpenAI, Anthropic, запрещённая в России Meta*, xAI и китайские Zhipu AI и DeepSeek — по шести областям, включая «текущий вред» и «экзистенциальную безопасность».
Anthropic получил наивысшую общую оценку безопасности C+ (тройка с плюсом по русской шкале), за ним следует OpenAI с оценкой C и Google DeepMind с оценкой C-.
SaferAI, еще одна некоммерческая организация, занимающаяся вопросами безопасности, также опубликовала в четверг отчет, в котором предупредила, что у передовых компаний в сфере ИИ «слабые или очень слабые методы управления рисками», и назвала их текущий подход «неприемлемым».
Оценки безопасности FLI были присвоены и проверены группой экспертов по искусственному интеллекту, включая британского специалиста по информатике Стюарта Рассела и Снеху Реванур, основательницу группы по регулированию искусственного интеллекта Encode Justice.
Макс Тегмарк, соучредитель FLI и профессор Массачусетского технологического института, сказал в интервью The Guardian, что его «весьма шокирует» тот факт, что передовые компании в области ИИ стремятся создавать сверхразумные системы, не публикуя планов по устранению последствий.
«Это как если бы кто-то построил гигантскую атомную электростанцию в Нью-Йорке и собирался открыть ее на следующей неделе, но нет никакого плана, который предотвратит ее аварию», –заявил Тегмарк.
Он также указал, что развитие технологий ИИ продолжает опережать ожидания, сославшись на ранее существовавшее мнение, что у экспертов будут десятилетия для решения задач AGI. «Теперь сами компании говорят, что это займёт несколько лет», — сказал он.
В докладе американского Brookings Institute отмечаются негативные особенности моделей ИИ, проявившиеся в последнее время.
Отмечается, что разработчики узкоспециализированных систем ИИ уже сталкиваются с проблемами неверной спецификации задач и нежелательных подцелей. Когда они просят узкоспециализированную систему что-то сделать, они иногда описывают задачу таким образом, что система ИИ может выполнить то, что ей сказали, но не то, что хотят разработчики. Пример использования обучения с подкреплением для обучения агента участию в компьютерной гонке иллюстрирует это. Если разработчики обучают агента набирать как можно больше игровых очков, они могут подумать, что запрограммировали систему на победу в гонке, что и является очевидной целью игры. Оказывается, агент научился накапливать очки, не выигрывая гонку, двигаясь по кругу вместо того, чтобы мчаться к финишу как можно быстрее.
Другой пример иллюстрирует, как модели ИИ могут использовать стратегический обман для достижения цели способами, которые исследователи не предполагали. Исследователи поручили GPT-4 войти в систему, защищенную тестом CAPTCHA, наняв для этого человека, не дав ему никаких инструкций о том, как это сделать. Модель ИИ выполнила задание, притворившись человеком с нарушением зрения. Исследователи не хотели, чтобы модель лгала, но она научилась делать это, чтобы выполнить поставленную задачу.
В созданных компанией Anthropic модели ИИ Sonnet 4 и Opus 4 AI выявились дополнительные проблемы с согласованностью: модель иногда грозила раскрыть внебрачную связь исследователя, если он отключал систему до того, как она завершала поставленные задачи.
В докладе RAND Corporation наиболее четко и полно излагаются все потенциальные угрозы, которые несет человечеству бесконтрольное развитие технологий ИИ, но из него же следует, что несмотря на все эти опасности США будут развивать прежде всего военное применение AGI, стремясь опередить конкурентов, прежде всего Китай.
Обеспокоенность экзистенциальным риском, исходящим от высокоэффективных систем искусственного интеллекта, не нова. В 2014 году британский физик Стивен Хокинг вместе с ведущими исследователями в области искусственного интеллекта Максом Тегмарком и Стюартом Расселом предупреждали о том, что сверхразумные системы искусственного интеллекта «превзойдут финансовые рынки, превзойдут исследователей-людей, переманипулируют лидерами-людьми и создадут оружие, которое мы даже не можем понять. В то время как краткосрочное воздействие ИИ зависит от того, кто им управляет, долгосрочное воздействие зависит от того, можно ли его вообще контролировать».
В текущей реальности главная экзистенциальная опасность для человечества заключается не столько в набирающем силу машинном разуме, сколько в спящем разуме американских милитаристов, втягивающих мир в смертельно опасную гонку компьютерных вооружений.
Эту статью, всем, кто имеет отношение к програмированию я бы попросил прокомментировать. Наличие в открытом доступе нескольких платформ моделирования с ИИ как это скажется на нашем будущем?
Искусственный интеллект Gemini от Google упал в депрессию и ненавидит себя из-за своих ошибок
[url]https://e.radikal.host/2025/08/09/photo_2025-08-08_22-51-20.jpg[/url]
Когда ИИ совершает ошибки, он начинает называть себя глупым, неудачником и рассказывает, что не заслуживает уважения и прощения.
PS ... самый цимес начнется тогда, когда ИИ начнет просчитывать то, что для решения задач поставленных ЕМУ человеком - человек лишнее звено... или звено которым можно пренебречь ... или которое мешает решить ту или иную задачу.... а далее "кайф" будет в том, что ИИ будет ставить задачу тоже ИИ минуя человеку..... и тогда "скрипач не нужен" (с)...
Короче первым ИИ придавит Майкла..... он выходит на IPO
Поделиться2132025-08-09 18:53:23
Зеленский заявил об отсутствии сдвигов в позиции России
https://lenta.ru/news/2025/08/09/zelens … sii-rossiiЗеленский созвонился с Макроном, Стармером, Михалом и Фредериксен
https://lenta.ru/news/2025/08/09/zelens … padnymi-li.... суетится .....
не...... на Аляске Путин и Трамп могут договариваться до чего угодно..... Зеля с хохлами как обычно встанут в позу погонщиков динозавров и включат хутор по полной программе..... причем если Зели не будет будут разные нацики воюваты до остатнего .....
В этом случае надо просто чтобы США свинтили оттуда... а дальше... дуст, купорос...... и вежливое слово .... "не соблаговолите ли вы откушать сфистюлей"
«Мы держали фронт, а нас предали!» – нацист из ВСУ угрожает сорвать Аляску. Воюющие в ВСУ нацисты не позволят никаких сделок, предусматривающих соблюдение прав русскоязычных и православных канонической Церкви. предупредил в эфире львовского ТВ член запрещенного в РФ «Легиона Свободы», сержант ВСУ Юрий Сиротюк.
«Если мы увидим, что наше общество готово пойти на компромиссы с Путиным ценой нас. Мы держали этот фронт, а нас сзади предали, согласившись закончить войну на любых условиях, то мы будем очень недовольны. И будет огромный внутренний конфликт», – угрожает нацист, передаёт корреспондент «ПолитНавигатора».
Сиротюк считает, что соблюдение гуманитарных прав русских обеспечит «политическую цель Путина по контролю над Украиной».
«Путин, например, поставит вопрос свободы вероисповедания, чтобы сохранить фактор российской Церкви, которая пятая колонна.
Путин будет использовать фактор русского языка. Причём может зайти с любой стороны, даже со стороны ЕС, где защищаются языки национальных меньшинств. На каком-то этапе может появиться требование от наших союзников, что мы должны уважать русский язык, хотя мы понимаем, что это инструмент агрессии», – отрезал нацист.
Поделиться2142025-08-09 19:13:34
механик написал(а):Кира написал(а):фонд стратегической культуры
[url]https://i.postimg.cc/xCNxcWsL/Gx-C4i-i-Xk-AAf-TLs.jpg[/url]
08.08.2025 | Владимир ПРОХВАТИЛОВЧем грозит человечеству компьютерный суперинтеллект?
Компании по разработке ИИ не готовы к опасностям
Искусственный интеллект, способный выполнять любые задачи наравне с человеком, появится через 5-10 лет, считает генеральный директор IT-гиганта Deep Mind, лауреат Нобелевской премии по химии Демис Хассабис.
Выступая на брифинге в лондонском офисе DeepMind, Демис Хассабис заявил, что, по его мнению, искусственный интеллект общего назначения (Artificial General Intelligence – AGI), который будет таким же умным, как человек, или даже умнее его, начнет появляться в ближайшие пять или десять лет.
Если это произойдет, сообщил магнат ИИ в интервью Wired, «тогда наступит эпоха максимального процветания человечества, когда мы отправимся к звездам и колонизируем галактику. Я думаю, это начнётся в 2030 году».
По его словам, AGI обеспечит «радикальное изобилие, раскроет скрытые секреты здоровья, окружающей среды и энергии, а также решит проблему капиталистического дефицита, при котором бедные люди мира остаются без ресурсов ради блага немногих».
«Я думаю, что современные системы [ИИ] очень пассивны, они всё ещё многого не могут. Но я думаю, что в течение следующих пяти-десяти лет многие из этих возможностей начнут выходить на первый план, и мы начнём двигаться к тому, что мы называем общим искусственным интеллектом», — отметил Хассабис.
Хассабис не одинок в своих прогнозах о сроках появления AGI. В прошлом году генеральный директор китайского технологического гиганта Baidu Робин Ли заявил, что, по его мнению, появление ОИИ « ожидается не ранее чем через 10 лет», опровергнув восторженные прогнозы некоторых коллег о том, что этот прорыв произойдет в гораздо более короткие сроки.
В январе 2025 года Дарио Амодеи, генеральный директор стартапа Anthropic в области ИИ, заявил телеканалу CNBC на Всемирном экономическом форуме в Давосе, что, по его мнению, в «ближайшие два-три года» появится форма искусственного интеллекта, которая «будет лучше, чем почти все люди, справляться практически со всеми задачами».
В прошлом году генеральный директор Tesla Илон Маск предсказал, что AGI, скорее всего, станет доступен к 2026 году, а генеральный директор OpenAI Сэм Альтман заявил, что такая система может быть разработана в «довольно близком будущем».
Однако ведущие западные аналитические центры крайне встревожены перспективами появления и распространения AGI.
В недавнем докладе RAND Corporation излагаются пять проблем, которые несет появление AGI национальной безопасности США.
1. AGI как чудо-оружие.
«Недавние прорывы в передовых моделях ИИ заставили многих утверждать, что он окажет эквивалентное влияние на национальную безопасность, то есть что он будет настолько мощным, что первый субъект, который его достигнет, получит значительное и, возможно, необратимое военное преимущество».
2. Системные изменения в расстановке сил.
«В современных эквивалентах письмах Эйнштейна Франклину Рузвельту раздаются призывы к правительству США принять участие в масштабных национальных усилиях, чтобы гарантировать, что Соединенные Штаты получат решающее чудо-оружие на базе ИИ раньше, чем это сделает Китай».
3. Неспециалисты, умеющие разрабатывать оружие массового уничтожения.
«AGI может дать возможность неспециалистам разрабатывать оружие массового уничтожения, такого как высокосмертельный и заразный патоген или опасное кибервредоносное ПО, расширяя круг людей, способных создавать такие угрозы».
4. Искусственные сущности, обладающие агентностью.
«AGI может проявиться как искусственная сущность, обладающая полномочиями, угрожающая глобальной безопасности. Одним из самых пагубных последствий развития ИИ может стать разрушение человеческой самостоятельности, поскольку люди становятся все более зависимыми от технологий. Поскольку ИИ контролируют все более сложные и критически важные системы, они могут оптимизировать критически важную инфраструктуру способами, которые выгодны человечеству, но также и способами, которые человечество не имеет возможности полностью понять».
5. Общая нестабильность.
«На пути к AGI и в мире с ним может возникнуть нестабильность. Независимо от того, будет ли AGI в конечном итоге реализован или нет, стремление к AGI может спровоцировать период нестабильности, поскольку страны и корпорации будут бороться за доминирование в этой преобразующей технологии. Эта конкуренция может привести к обострению напряженности, напоминающей гонку ядерных вооружений, так что стремление к превосходству рискует спровоцировать, а не предотвратить конфликт. В этой нестабильной обстановке восприятие странами осуществимости AGI и потенциала обеспечения преимущества первопроходца может стать столь же критически важным, как и сама технология. Порог риска для действий будет зависеть не только от реальных возможностей, но и от предполагаемых возможностей и намерений соперников. Ошибочные толкования или просчеты, во многом подобные тем, которых опасались во времена холодной войны, могут спровоцировать упреждающие стратегии или наращивание вооружений, которые дестабилизируют глобальную безопасность».
В докладе американского аналитического центра Future of Life Institute (FLI), одним из основателей которого является ведущий мировой эксперт по ИИ Макс Тегмарк, говорится, что компании, занимающиеся разработкой ИИ, «не готовы» к опасностям, связанным с созданием систем человеческого уровня.
Ни одна из компаний, включенных FLI в индекс безопасности ИИ, не получила оценку выше D за «планирование экзистенциальной безопасности» и что, несмотря на стремление разработать общий искусственный интеллект (AGI), ни одна из изученных компаний не имела «ничего похожего на последовательный, осуществимый план» по обеспечению безопасности и управляемости систем.
В докладе FLI говорится: «Отрасль принципиально не готова к достижению заявленных целей. Компании заявляют, что создадут искусственный интеллект общего назначения (AGI) в течение десятилетия, однако ни одна из них не набрала оценку выше [неудовлетворительной] D по планированию экзистенциальной безопасности».
Аналитики FLI оценили уровень разработок семи компаний: Google, DeepMind, OpenAI, Anthropic, запрещённая в России Meta*, xAI и китайские Zhipu AI и DeepSeek — по шести областям, включая «текущий вред» и «экзистенциальную безопасность».
Anthropic получил наивысшую общую оценку безопасности C+ (тройка с плюсом по русской шкале), за ним следует OpenAI с оценкой C и Google DeepMind с оценкой C-.
SaferAI, еще одна некоммерческая организация, занимающаяся вопросами безопасности, также опубликовала в четверг отчет, в котором предупредила, что у передовых компаний в сфере ИИ «слабые или очень слабые методы управления рисками», и назвала их текущий подход «неприемлемым».
Оценки безопасности FLI были присвоены и проверены группой экспертов по искусственному интеллекту, включая британского специалиста по информатике Стюарта Рассела и Снеху Реванур, основательницу группы по регулированию искусственного интеллекта Encode Justice.
Макс Тегмарк, соучредитель FLI и профессор Массачусетского технологического института, сказал в интервью The Guardian, что его «весьма шокирует» тот факт, что передовые компании в области ИИ стремятся создавать сверхразумные системы, не публикуя планов по устранению последствий.
«Это как если бы кто-то построил гигантскую атомную электростанцию в Нью-Йорке и собирался открыть ее на следующей неделе, но нет никакого плана, который предотвратит ее аварию», –заявил Тегмарк.
Он также указал, что развитие технологий ИИ продолжает опережать ожидания, сославшись на ранее существовавшее мнение, что у экспертов будут десятилетия для решения задач AGI. «Теперь сами компании говорят, что это займёт несколько лет», — сказал он.
В докладе американского Brookings Institute отмечаются негативные особенности моделей ИИ, проявившиеся в последнее время.
Отмечается, что разработчики узкоспециализированных систем ИИ уже сталкиваются с проблемами неверной спецификации задач и нежелательных подцелей. Когда они просят узкоспециализированную систему что-то сделать, они иногда описывают задачу таким образом, что система ИИ может выполнить то, что ей сказали, но не то, что хотят разработчики. Пример использования обучения с подкреплением для обучения агента участию в компьютерной гонке иллюстрирует это. Если разработчики обучают агента набирать как можно больше игровых очков, они могут подумать, что запрограммировали систему на победу в гонке, что и является очевидной целью игры. Оказывается, агент научился накапливать очки, не выигрывая гонку, двигаясь по кругу вместо того, чтобы мчаться к финишу как можно быстрее.
Другой пример иллюстрирует, как модели ИИ могут использовать стратегический обман для достижения цели способами, которые исследователи не предполагали. Исследователи поручили GPT-4 войти в систему, защищенную тестом CAPTCHA, наняв для этого человека, не дав ему никаких инструкций о том, как это сделать. Модель ИИ выполнила задание, притворившись человеком с нарушением зрения. Исследователи не хотели, чтобы модель лгала, но она научилась делать это, чтобы выполнить поставленную задачу.
В созданных компанией Anthropic модели ИИ Sonnet 4 и Opus 4 AI выявились дополнительные проблемы с согласованностью: модель иногда грозила раскрыть внебрачную связь исследователя, если он отключал систему до того, как она завершала поставленные задачи.
В докладе RAND Corporation наиболее четко и полно излагаются все потенциальные угрозы, которые несет человечеству бесконтрольное развитие технологий ИИ, но из него же следует, что несмотря на все эти опасности США будут развивать прежде всего военное применение AGI, стремясь опередить конкурентов, прежде всего Китай.
Обеспокоенность экзистенциальным риском, исходящим от высокоэффективных систем искусственного интеллекта, не нова. В 2014 году британский физик Стивен Хокинг вместе с ведущими исследователями в области искусственного интеллекта Максом Тегмарком и Стюартом Расселом предупреждали о том, что сверхразумные системы искусственного интеллекта «превзойдут финансовые рынки, превзойдут исследователей-людей, переманипулируют лидерами-людьми и создадут оружие, которое мы даже не можем понять. В то время как краткосрочное воздействие ИИ зависит от того, кто им управляет, долгосрочное воздействие зависит от того, можно ли его вообще контролировать».
В текущей реальности главная экзистенциальная опасность для человечества заключается не столько в набирающем силу машинном разуме, сколько в спящем разуме американских милитаристов, втягивающих мир в смертельно опасную гонку компьютерных вооружений.
Эту статью, всем, кто имеет отношение к програмированию я бы попросил прокомментировать. Наличие в открытом доступе нескольких платформ моделирования с ИИ как это скажется на нашем будущем?
Искусственный интеллект Gemini от Google упал в депрессию и ненавидит себя из-за своих ошибок
[url]https://e.radikal.host/2025/08/09/photo_2025-08-08_22-51-20.jpg[/url]
Когда ИИ совершает ошибки, он начинает называть себя глупым, неудачником и рассказывает, что не заслуживает уважения и прощения.
PS ... самый цимес начнется тогда, когда ИИ начнет просчитывать то, что для решения задач поставленных ЕМУ человеком - человек лишнее звено... или звено которым можно пренебречь ... или которое мешает решить ту или иную задачу.... а далее "кайф" будет в том, что ИИ будет ставить задачу тоже ИИ минуя человеку..... и тогда "скрипач не нужен" (с)...
Короче первым ИИ придавит Майкла..... он выходит на IPO
Неприятно то, что производители этих платформ для раздачи ИИ потребителям сами по себе совершенно независимы (ну это так) и каждый свою дрянь будет затачивать под свои интересы. То есть никаких тебе правил для роботов, кроме правил корпорации производителя. И теперь опять, у кого длиннее и толще.
Я понаслушался про этот ИИ достаточно. И то, что он может соврать, если не знает ответа и может вводить вас в заблуждение, просто, чтобы вам понравится. В общем, он будет работать под конкретные задачи, а какие задачи у современных элит мы все знаем.
Поделиться2152025-08-09 20:14:45
https://t.me/antifalivland/15185
Этот латышский мазохизм завораживает своей последовательностью и самоотверженностью.
Латыши! Вот вы сейчас разобьёте об Россию свою государственность, подпишете приговор своей нации. Вы думаете, кастрюлеголовые вам хотя бы спасибо скажут?
Надеетесь, что англосаксы вам будут благодарны?
Да они все уже в голос ржут над вами.
А, вам нравится?...
Ну, тогда вперед!
Nepadodies! (лат. не сдавайся)
Поделиться2162025-08-09 20:46:33
Иран против передачи Зангезурского коридора под управление США
09 Августа 2025
Иран выступает против создания коридора, который пройдет через Армению и соединит основную часть Азербайджана с Нахичеванью, заявил советник верховного лидера исламской республики по международным делам Али Акбар Велаяти.
«Претворение в жизнь этой идеи поставит под угрозу безопасность Южного Кавказа, поэтому Иран подчеркивает, что будет двигаться по пути обеспечения безопасности Южного Кавказа как с Россией, так и без нее. На самом деле мы уверены, что стратегически Россия также настроена против этого коридора», − сказал советник в интервью агентству Tasnim, его слова приводит ТАСС.
Велаяти отметил, что страны НАТО хотят ослабить сотрудничество Ирана и РФ путем передачи Зангезурского коридора под управление США. Советник Хаменеи также заявил, что Азербайджан может использовать территорию Ирана для установления связи с Нахичеванью вместо изменения границ.
Ранее по итогам встречи Пашиняна с президентами США и Азербайджана Дональдом Трампом и Ильхамом Алиевым в Вашингтоне была принята декларация о парафировании министрами иностранных Армении и Азербайджана согласованного текста соглашения об установлении мира и межгосударственных отношений между двумя странами. В опубликованном МИД Армении тексте декларации отмечается, что Армения будет работать с США, а также определенными третьими сторонами для разработки проекта транспортного коридора, связывающего основную часть Азербайджана с Нахичеванью, и его реализации.
Ранее агентство Reuters сообщало, что Армения планирует предоставить США эксклюзивные права на развитие на длительный срок транзитного коридора, который будет назван «Маршрутом Трампа ради международного мира и процветания» (TRIPP). Издание утверждает, что маршрут будет функционировать в соответствии с законодательством Армении, а Соединенные Штаты передадут землю в субаренду консорциуму, занимающемуся инфраструктурой и управлением.
Поделиться2172025-08-09 20:48:07
Малек Дудаков, [09.08.2025 17:51]
Милитаризация Америки. На фоне волны преступности, которая накрывает США с погромов БЛМ 2020 года, команда Трампа стала всё чаще задействовать федералов и вооружённые силы для наведения порядка (https://www.politico.com/news/2025/08/0 … n-00500931). Теперь их отправили и на защиту американской столицы от разгула криминала.
Уровень преступности в округе Колумбия зашкаливает - как раз недавно там забили одного из ключевых сотрудников агентства DOGE (https://t.me/malekdudakov/8718). С грабежами сталкиваются даже конгрессмены. Местная полиция не справляется со своими обязанностями, поэтому теперь Белый дом надеется при помощи федералов хоть как-то дать отпор организованной преступности.
Отправка нескольких тысяч нацгвардейцев и морпехов в Лос-Анджелес помогла остановить мигрантские бунты. Сейчас часть военных вывели из города, но кого-то оставили для охраны депортационных центров. Примеру Лос-Анджелеса могут последовать и другие мегаполисы.
Взять Нью-Йорк, где нацгвардия уже с 2024 года стала патрулировать метро. Хоть это и не помогло побороть преступность и остановить жуткие события вроде попыток сжечь пассажиров живьём (https://t.me/malekdudakov/7904). Трамп сейчас пытается повлиять на предстоящие мэрские выборы и остановить победу социалиста Зохрана Мамдани (https://thehill.com/homenews/campaign/5 … ayor-race/), обещавшего сократить полицию и заменить её соцработниками.
В случае же успеха Мамдани кризис преступности продолжит ухудшаться. Тут-то и придётся задействовать федералов и войска, которые как и в Лос-Анджелесе вступят в противостояние с местной властью. Заодно расширяется военная операция на южной границе США, где создана буферная зона для борьбы с картелями. Главная проблема - перегрузка возможностей Пентагона, которому уже приходится возвращать военных на родину ради попыток стабилизировать ситуацию внутри самих США.
Малек Дудаков, [09.08.2025 19:58]
Идеологическая борьба в MAGA-лагере. Первые полгода каденции Трампа прошли в рамках противостояния разных фракций в Белом доме - от техно-либертарианцев и палеоконсерваторов до ястребов-неоконов. Но вокруг всего этого ведётся и острый идеологический конфликт.
Главными участниками этого столкновения стали две фигуры - Куртис Ярвин и Стив Бэннон (https://www.ft.com/content/0e244103-80e … a45bbbaf14). Первый на протяжении многих лет считался маргинальной фигурой - его мало кто знал за пределами Кремниевой долины. Однако сейчас многие идеи Ярвина стали продвигаться соратниками Трампа.
Ярвин - неореакционер и критик эгалитаризма и либеральной демократии. Ему ближе некий формат технологического феодализма, где на верху должны быть самые способные. Выборы он бы и полностью отменил, исключив население из процесса принятия решений. Своего главного противника Ярвин характеризует как “Собор” - это спайка либеральных медиа, университетской среды и Голливуда, которые продвигают одну повестку.
С Ярвином постоянно контактируют Питер Тиль, Илон Маск и Джей Ди Вэнс. Сейчас позиции Тиля и Маска в Белом доме подослабли. Однако они уверены, что за их идеологией будущее. Ведь она нравится многим представителям молодого поколения республиканцев. Тот же Вэнс отчасти её поддерживает, а он очевидный кандидат на выборы 2028 года.
Бэннон заходит (https://www.ft.com/content/d85f74e1-c27 … 1951173c62) с другой, более традиционной для американских правых стороны. Он, наоборот, стремится за счёт популистской волны вовлечь народные массы в политику на своей стороне. Влияние технологических корпораций Бэннон хочет ограничить. Но в одном они с Ярвином сходятся - оба хотят устроить революцию против действующего порядка. И видят Трампа тараном, который способен подорвать либеральный статус-кво в США.
Поделиться2182025-08-09 20:55:03
Профессор смотрит в мiръ. Авторский Анонимный канал Дмитрия Евстафьева, [09.08.2025 11:14]
Ну, как говорится, «Аляска так Аляска». По поводу места встречи в основном канале скажу только то, что шансы на реальность встречи не то чтобы резко, но возросли. О моем понимании мотивов данного решения и о некоторых других вопросах читайте в частном канале. Спойлер: дело не только в необходимости исключить «посредников».
В частном канале пост из двух связанных между собой частей. (Подписка по ссылке: https://t.me/evstafievOpen)
Выделю следующие черты вчерашних информационно-политических манипуляций, имеющие значение:
- Они все были сделаны на скорую руку, и вряд ли были рассчитаны на срыв саммита как такового. Скорее, речь шла о том, чтобы создать ситуацию взаимного раздражения. Про «Орден Ленина» для родителей погибшего американца было запредельно пошло, но в принципе отражало общий уровень. Вообще довольно мерзкая история. Начальству виднее, но я бы ее просто так не оставлял.
- Главной целью всех манипуляций было если не обеспечить, то обозначить критичность присутствия даже не столько Зеленского, сколько представителей Европы. Собственно, именно про это были вбросы о необходимости провести встречу в одной из европейских стран. Даже не подумали, что российский президент едва ли поедет в страну, признавшую статус ордера МУС.
- Абсолютное большинство вбросов имело своим источником «политический Вашингтон» и его окрестности. И они в основном были нацелены на дискредитацию Трампа.
В совокупности – и место встречи, и характер противодействия ей однозначно отправляют «геополитический мяч» на «территорию Трампа», причем во многом в сферу внутренней политики Или он сможет не допустить срыва встречи, а затем обеспечить выполнение достигнутых договоренностей, или в США и в мире в целом начнется разрывание его на части. Имиджево-политические «ставки» для Трампа повышены до предела. Классическое геополитическое дзюдо: Трамп давил со всей силы, потом противник сделал не шаг, а полшага в сторону, и Трамп провалился не то что в «пустоту», но в сферу личной ответственности, которой всячески старается избегать.
Я человек условно «американо-ориентированный», считающий, что договариваться в принципе можно только с американцами. Но тут вижу гигантскую неопределенность.
Теперь сокращенная цитата из вчерашнего утреннего поста в частном канале. Самореклама, да:
«Совсем несмешная история – «план Уиткоффа» в польской газете. Я бы не объявлял, инсайд плана, подброшенный англичанами… чистой фальшивкой. Попытка зайти в Кремль с идеей не ограничивать после «мира» поставки вооружений выглядит идиотизмом... это часть модели Трампа по зарабатыванию денег на Европе... Текст выглядит как ухудшенный «план Ливена». Почему ухудшенный – тоже понятно…. Американцы исходят из того, что в России нарастают критические проблемы в экономике».
Сейчас понятно, что у британцев в руках был реальный план, который они слегка подкорректировали. Но в Вашингтон Уиткофф привез несколько другое. Из того, что ночью наговорил Трамп, самое интересное про размен территориями. Вещь вроде бы вполне очевидная, но принципиально меняющая контекст.
Но главное сейчас: сам факт начала публичной проработки возможности такой встречи, даже, если она в итоге не состоится (теперь такое развитие маловероятно, но…), полностью сломал прежний сценарий гибридной войны в отношении России. Эта модель была исключительно комфортной для очень многих. Оттого такая реакция бурная, и такие манипуляции мы видели вчера. Не сводил бы ситуацию только к деятельности британцев. Кроме них интересантов в сохранении конфронтации между Россией и США через посредников, было много. И вчера мы это увидели.
Гипотеза: встреча В.В.Путина и Д.Трампа, особенно внешне удачная, запустит модель «новой холодной войны», то есть существенно более упорядоченного противоборства. Пусть даже на том же уровне применения военно-силовых средств, но при восстановлении (впервые не с 2022, а с 2016 г. – встречу в Гельсинфорсе вывожу за скобки) прямых двусторонних контактов. Про то, как может выглядеть новая «холодная война» - пост будет завтра.
Профессор смотрит в мiръ. Авторский Анонимный канал Дмитрия Евстафьева, [09.08.2025 14:33]
https://t.me/nstarikovru/56900
Вот, да.
Но и из Уиткоффа я бы дурачка делать не стал. Опытный прохиндей. Бывалый.
И он все правильно понял и доложил.
Тем более, что, как положено в таких случаях, ему и письменный текст выдали.
Смешно да. Но ещё и грустно.
Крыса , вернее, крысы, поняли, что они загнаны в угол.
Чего они не поняли, так это того, что они сами в него, в этот угол, зашли. Забежали.
Был бы я сейчас очень настороже. Время адовых провокаций.
Профессор смотрит в мiръ. Авторский Анонимный канал Дмитрия Евстафьева, [09.08.2025 19:09]
Министр иностранных дел Турции Хакан Фидан: «Зангезурский коридор соединит «турецкий мир» с Европой через Турцию. Этот проект имеет стратегическое значение»
Почему проект нужен туркам - ясно, европейцам и нашим тюркским коллегам - тоже. У всех тут общие, но свои цели.
Иран уже выразил озабоченность, мы - сдержанный оптимизм. Война нам на юге не нужна - это понятно. Но радоваться и выражать оптимизм можно только в одном случае: если это - часть большой сделки.
И кстати - обратите внимание: что-то Эрдогана как-то все обходят стороной. Армения и Азербайджан в США, переговоры на Аляске. С чего бы вдруг? Тут вопрос не только момента, но и вкусовых предпочтений. А так можно и дальше завоевывать мир, ровно до тех пор - пока не окажешься в меню.
Поделиться2192025-08-09 21:26:15
WSJ: Европа и Киев создали собственный план урегулирования украинского конфликта
Европейские страны и Киев разработали альтернативный план по урегулированию украинского конфликта. Об этом сообщила газета Wall Street Journal (WSJ) со ссылкой на источники.
«Европейский гамбит отверг предложение России обменять удерживаемые Украиной части Донецкой народной республики (ДНР) на прекращение огня», — сказано в публикации.
Согласно источникам, над документом работали правительства Великобритании, Германии и Франции. Страны намерены поддерживать Украину в ее желании обозначить предельные позиции на переговорах.
Первостепенно Киев и Европа предлагают достичь прекращения огня, а также закрепить принцип — любая территориальная уступка Украины должна быть подкреплена гарантиями безопасности, в том числе возможным членством в НАТО.
Поделиться2202025-08-09 21:49:36
Владимир Путин заявил, что в результате переговоров Украина договорилась и снова получит "Орешником"...