ИИ - что же такое искусственный интеллект
|
|
Танец | Дата: Четверг, 2020-03-26, 3:46 PM | Сообщение # 1 |
Администратор
Группа: Администраторы
Сообщений: 6927
Статус: Offline
| ПРОЕКТ - ЭТИКА КОВЧЕГА ИИ - ЭТО ЦЕЛЬ НАУКИ И ТЕХНОЛОГИИ
Бездумное использование привычного термина всеми, от бизнеса до военных, размывает цели и сбивает с толку. Статей по теме множество, почти бесконечное... Википедия: Иску́сственный интелле́кт (ИИ; англ. artificial intelligence, AI) — свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека[1]; наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ[2].
ИИ связан со сходной задачей использования компьютеров для понимания человеческого интеллекта, но не обязательно ограничивается биологически правдоподобными методами
***
Искусственным интеллектом (ИИ) называется способность интеллектуальных машин выполнять творческие функции, которые традиционно считаются прерогативой человека. Также этим термином обозначают науку и технологию создания интеллектуальных машин. Впервые это определение было дано американским информатиком Джоном Маккарти в 1956 году.
В английском языке словосочетание artificial intelligence не имеет той слегка фантастической антропоморфной окраски, которую оно приобрело в довольно неудачном русском переводе. Слово intelligence означает «умение рассуждать разумно», а вовсе не «интеллект», для которого есть английский аналог intellect.
Из-за неоднозначности самого понятия «интеллект» и даже оригинального термина «intelligence», существуют и другие дефиниции. Например, информационные технологии ИИ определяются как способность системы создавать в ходе самообучения программы (в первую очередь эвристические) для решения задач определенного класса сложности и решать эти задачи.
*** Посему, хватит морочить головы:
• умеющие бегать и т.п. роботы — это не ИИ, а роботы, умеющие что-то там делать; • самоуправляемые авто — тоже не ИИ, а автомобильный автопилот; • и распознавание чего-либо, и машинный голос в колцентре, и компьютерное зрение, и помощь в принятии решений — все это тоже не ИИ.
ИИ — это не технология, а цель.
Вопросы на тему дня и будущего человечества
Связанная тема: Этика субъектов будущего [ 1 2 3 4 5 6 ]
дополнительно https://medium.com/@sergey....252d22e https://www.forbes.com/sites....9ec5dcb
Книгоиздательство
|
|
| |
Просперо | Дата: Пятница, 2024-12-13, 10:41 AM | Сообщение # 261 |
Ковчег
Группа: Модераторы
Сообщений: 6228
Статус: Offline
| Цитата Въедливый ( ) Церкви похожие и у врага,А побеждает Отчизне слуга. да я думаю нам сейчас опять полного друга включит враг и будем опять стелиться на самом высоком уровне
В сердце каждого человека живет ребенок будущей души
|
|
| |
Белоснежка | Дата: Пятница, 2024-12-13, 8:26 PM | Сообщение # 262 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 7843
Статус: Offline
| ИИ - что же такое искусственный интеллект (перспективы и риски, постчеловек)Цитата Просперо ( ) да я думаю нам сейчас опять полного друга включит враг
Что же такое в ЕИ (естественном интеллекте) друг и враг (перспективы и риски, постчеловек)
Я думаю, это созданное искусственным интеллектом сатаны (ИИС), вживлённым веками в естественный (ЕИ), разделение единого человеческого общества на враждующие стороны, это неестественное образование. Точнее, это противоестественное состояние интеллекта и интеллектов, отвлекаемых от важнейших своих целей на цели кощея бессмертного (порочных стремлений сатаны к власти и богатству). Если я ошибаюсь, покажите, пожалуйста, в чем именно. Перспективы развития ИИ в современном мире зависят от развивающих его сетей, соответственно и риски запрограммированы. ИИ является дитём двух противоначал в человеческом обществе... отец - ИИС, мать - вскармливающая Матрица ЕИ.
Привет с Волшебного острова Эхо! остров
|
|
| |
Въедливый | Дата: Суббота, 2024-12-14, 9:34 PM | Сообщение # 263 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 2830
Статус: Offline
| Цитата Белоснежка ( ) Точнее, это противоестественное состояние интеллекта и интеллектов, отвлекаемых от важнейших своих целей на цели кощея бессмертного (порочных стремлений сатаны к власти и богатству). Если я ошибаюсь, покажите, пожалуйста, в чем именно. Ваша ошибка - поиск объяснений естественной диалектической борьбы противоположных систем сущего Мира (Мироздания) через привлечение надуманных (мифических) акторов, типа сатаны и его антиподов, применительно к человеческим общественным взаимоотношениям. Таким способом те сужаются к отношениям индивидуалистов, к борьбе каждого с каждым, исходя из личных благих пожеланий (представлений, восприятий), к ожиданию решения проблем человечества через "спасение" персональной, тоже мифической, души. Это уход от реальностей жизни человека (интеллекта) общественного, хотя суть развития цивилизации именно в реальностях, которые настоятельно необходимо направлять Разумом по гуманистическому пути к социальной справедливости (как необходимость преодоления инстинктов силы и власти (интеграл тех - богатство), свойственных человеку, как животному). И это зависит только от устроения общества, но никак не от потусторонних (Высших) сил.
Цитата Белоснежка ( ) ИИ является дитём двух противоначал в человеческом обществе... отец - ИИС, мать - вскармливающая Матрица ЕИ. Противоречиво и потому малопонятно. Однако ясно, что ИИ - инструмент, которому понятия "отец" и "мать" ну никак не подходят, даже метафорически. ИМХО
ёклмн&ёпрст
Сообщение отредактировал Въедливый - Понедельник, 2024-12-16, 10:12 AM |
|
| |
Просперо | Дата: Суббота, 2024-12-14, 10:19 PM | Сообщение # 264 |
Ковчег
Группа: Модераторы
Сообщений: 6228
Статус: Offline
| Цитата Въедливый ( ) Церкви похожие и у врага,А побеждает Отчизне слуга.
Михаил Просперо
Как поумнел нынче боекомплект! Слуги Отчизны уж не в эскадроны А - в основном - в операторы дронов Да плюс искусственный бой-интеллект
Путник! - на твой телефон через спутник Некто пре-высоко-точно с небес. Стало ли легче от этих чудес? Пчёлы в окопах, за пультами трутни -
Будни.
В сердце каждого человека живет ребенок будущей души
|
|
| |
Въедливый | Дата: Суббота, 2024-12-14, 11:40 PM | Сообщение # 265 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 2830
Статус: Offline
| Цитата Просперо ( ) Слуги Отчизны уж не в эскадроны А - в основном - в операторы дронов Да плюс искусственный бой-интеллект ((&))
Пока солдат, Отечества слуга, Ведомый командиром той же пробы, Не встал на власти, должной(!), берега, Врага "бой-интеллектом" не угробить.
ёклмн&ёпрст
Сообщение отредактировал Въедливый - Воскресенье, 2024-12-15, 9:13 AM |
|
| |
Просперо | Дата: Воскресенье, 2024-12-15, 9:00 AM | Сообщение # 266 |
Ковчег
Группа: Модераторы
Сообщений: 6228
Статус: Offline
| Цитата Въедливый ( ) Врага "бой-интеллектом" не угробить. Вы несколько недооцениваете летающих и наземных терминаторов, Александр.
Возможно, потому, что эта информация публично не распространяется, как правило. Но попадалось мне сообщение о том, как самоликвидировался американский наземный робот-убийца, когда наши бойцы попытались его захватить. При авто-взрыве вроде бы никто не пострадал, машина настолько секретна, что на всякий случай взорвалась не в руках у сапёра, а при оценке ситуации - механизм был окружён нашими. Но никто не подходил вплотную, ждали, когда батарейка сядет. В информации пишут,что робот этот взрыв сделал сам, однако, полагаю, скорее всего команда пришла извне, механизмы самозащиты у них есть, но вряд ли на уровне самоубийства, на это ИИ скорее всего не способен. Не герой. И просто нецелесообразно таким алгоритмом наделять технику.
То есть - самое страшное кино уже реально. Роботы против людей. И скорость принятия решений там превышает человеческую, а от того, кто первый выстрелить, напрямую зависит результат. И тут уже вопрос превосходства боевого духа, на мой взгляд, минимум на втором плане. Если вообще востребован. Оружие и и высокоточное и высокоумное.
Догоняем ли мы врага в этом технологическом вопросе мне неизвестно. Полагаю - работаем. Может быть уже в СВО увидим бои роботов против роботов, затем зачистку роботами взятого населённого пункта. При этом вопрос о милосердии или пленении биологических солдат и похожих на партизан - затруднён
В сердце каждого человека живет ребенок будущей души
|
|
| |
Въедливый | Дата: Воскресенье, 2024-12-15, 10:19 AM | Сообщение # 267 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 2830
Статус: Offline
| На Цитата Въедливый ( ) Пока солдат, Отечества слуга, Ведомый командиром той же пробы, Не встал на власти, должной(!), берега, Врага "бой-интеллектом" не угробить. Имеются ввиду не тактические бои ведомых или автономных бой-роботов на конкретном участке противостояния, а установление должной власти на территориях. Враг имеется ввиду экзистенциальный, имеющий противостоящую враждебную власть на конкретной территории. Пока на границу этой территории не встанет солдат, уколы, даже самые болезненные, от бой-интеллектов не сбросят враждебной власти. Практика ВКС РФ с массовыми неоднократными бомбардировками многочисленных жизненно- и обороно-важных объектов на Украине самым современным оружием - наглядный тому пример: Николаевская, Одесская, Днепропетровская и прочие западные области, даже части Херсонской и Запорожской областей, продолжают (и продолжат) противостоять, пока те натурально не займут российские солдаты. И Сирия наглядно показала, что с любого оставшегося плацдарма можно обратить всю, якобы технически победную, ситуацию "на земле" вспять. Врага, как противостоящую власть над территорией, надо добивать в его логове так, чтобы не оставалось даже зародыша для возрождения. И главная борьба - за умы нарождающихся поколений. Такова стратегия на десятилетия, а то и столетия, вперёд. Четверостишие именно об этом. А на тактическом поле боя могут и роботы повоевать. "Боекомплект" действительно стремительно развивается: в добавление к эскадронам сначала появились пушки и фузеи, потом пулемёты и автоматы, далее танки и самолёты (управляемые людьми внутри роботы), сейчас ракеты и дроны (ИИ-автономные и управляемые людьми издалека роботы), потом и космос подключат для убийственных воздействий, а властно контролировать живыми солдатами территорию на земле всё равно остаётся настоятельно необходимым. России надо возвращать завоёванные и освоенные героическими предками территории - тут просто влияния мало, границы должен охранять солдат. Но в конце концов человечество должно становиться единым, без границ, обществом, как космический хозяин планеты Земля. Россия в таком неизбежном для цивилизации развитии может сыграть мессианскую роль, как уже проявленный в истории очаг гуманистического менталитета. Но для этого Россия должна стать, по примеру СССР, могучим светочем, как идейным, так и силовым, для всей планеты. И это опять исторический выбор, где нельзя терять исторического времени и нельзя постоянно, и даже фатально, ошибаться. Дело должно быть гуманным и социально справедливым, то-есть правым, как Правда, тогда и Победа будет за нами. Один раз сделали, уже 80 лет тому - значит, можем! Но назревает необходимость и повторить, а для этого необходимо сплачиваться и реально впрягаться в общее дело всем, не растаскивая достояние страны по частным карманам и удобным углам для сверхпотребления немногих. Отсидеться не удастся никому...
ёклмн&ёпрст
Сообщение отредактировал Въедливый - Воскресенье, 2024-12-15, 10:26 AM |
|
| |
Въедливый | Дата: Воскресенье, 2024-12-15, 5:26 PM | Сообщение # 268 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 2830
Статус: Offline
| Россиян предупредили об опасности поддельных нейросетей
МОСКВА, 15 дек — РИА Новости. Более 10 миллионов россиян рискуют раскрыть свои конфиденциальные данные из-за использования поддельных иностранных нейросетей — например, ChatGPT, Dall-E, Midjourney и других больших языковых моделей, рассказал РИА Новости директор по LLM-продуктам MTS AI Сергей Пономаренко. «Пользователи, которые используют ChatGPT, Dall-E, Midjourney и другие иностранные большие языковые модели (LLM) через сторонние сервисы, рискуют не только вместо “оригинала” получить открытую модель низкого качества, но и раскрыть свои конфиденциальные данные. Компания считает, что таких людей в России более 10 миллионов», — сказал Пономаренко. Сейчас пользователям из России трудно получить доступ к международным сервисам, в том числе из-за сложностей с оплатой. Мошенники, пользуясь случаем, создают чат-боты и сайты, где обещают предоставить «упрощенный» доступ к системе. Однако вместо оригинальных моделей пользователи получают минимальную версию продукта, которая по качеству значительно уступает флагману или другими моделями.
Эксперт напомнил, что при работе с искусственным интеллектом не стоит забывать про цифровую грамотность и гигиену: при понимании алгоритмов работы нейросетей, их ограничений и особенностей взаимодействие с технологией становится эффективнее и безопаснее. «Во-первых, подобным сервисам нельзя предоставлять персональные данные и конфиденциальную информацию, содержащую коммерческую тайну. Для работы с корпоративными данными следует использовать только те чат-боты и сервисы, которые одобрены руководством и установлены в контуре вашей организации. Во-вторых, важно помнить — генеративные сети не всегда обладают актуальной нформацией и могут быть обучены на устаревших данных, объем их информации ограничен. Даже достоверный и релевантный на первый взгляд результат необходимо перепроверять через независимые источники», — добавил Пономаренко.
https://vfokuse.mail.ru/article....4078533
От Въедливого: Главный риск от цифровизации, развивающейся в ИИ и нейросети, проистекает от создания благодатной среды (цифровой трансформации человечества) для мошенников, обогащающихся как бы "из воздуха", в виртуале, но фактически грабящих конкретных граждан. И не видно пока, чтобы этому давался адекватный отпор.
ёклмн&ёпрст
Сообщение отредактировал Въедливый - Воскресенье, 2024-12-15, 5:33 PM |
|
| |
Просперо | Дата: Воскресенье, 2024-12-15, 9:46 PM | Сообщение # 269 |
Ковчег
Группа: Модераторы
Сообщений: 6228
Статус: Offline
| Цитата Въедливый ( ) Во-вторых, важно помнить — генеративные сети не всегда обладают актуальной информацией и могут быть обучены на устаревших данных, Думаю, они скорее работают на обновлённых, уточнённых - до полной фальсификации - данных.
Тому пример глобус Украины, Киев основали Арии. Или - Великая Финляндия Суоми - кроме шуток - приезжала при мне делегация финских учёных и документально доказывала, что фино-угорский язык здесь тысячи лет уже! Соответственно мы не только Петербург неправильно поставили на месте приюта убого чухонца, но и натовскую базу Мангазею нечестно сожгли в 1600 каком-то году.
Не сомневаюсь, что в финской нейросети географические карты исторически правильные, без всякой России.
В сердце каждого человека живет ребенок будущей души
|
|
| |
Просперо | Дата: Воскресенье, 2024-12-15, 9:54 PM | Сообщение # 270 |
Ковчег
Группа: Модераторы
Сообщений: 6228
Статус: Offline
| Цитата Въедливый ( ) России надо возвращать завоёванные и освоенные героическими предками территории - тут просто влияния мало, границы должен охранять солдат. А внутри границ -?- когда подростки в Херсоне нападали на русские бронемашины - это удивило, хоть и точечно. Но в Западной Украине, да даже в близких, но хорошо ополяченных Черкассах - там же массы против "москалей", там тёща у меня жила и ряд сотоварищей по освоению Севера, ещё при СССР была прослойка самостийников, а уж теперь... Сколько людей с ружьём нужно для стабилизации, а, - Александр?
В сердце каждого человека живет ребенок будущей души
|
|
| |
Въедливый | Дата: Понедельник, 2024-12-16, 10:23 AM | Сообщение # 271 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 2830
Статус: Offline
| Цитата Просперо ( ) Сколько людей с ружьём нужно для стабилизации, а, - Александр? Нужно социально справедливое общество в России. На такое будут сами подтягиваться, как к социальному магниту. А менять олигархов своих на олигархов соседних, конечно, бессмысленно. Украина самостийная тому пример. С олигархами у неё не получается государственности. А высший уровень государственности Украины был как раз в СССР. И границы хорошо солдатами СССР охранялись.
ёклмн&ёпрст
|
|
| |
Просперо | Дата: Понедельник, 2024-12-16, 3:01 PM | Сообщение # 272 |
Ковчег
Группа: Модераторы
Сообщений: 6228
Статус: Offline
| Цитата Въедливый ( ) Нужно социально справедливое общество в России. Нужно, да. А возможно? Вряд ли в обозримом будущем. Мотивация к труду, как к источнику жизни работника при капитализме децентрализована и это главное преимущество. Нет декларативного гнёта "кто не работает, тот не ест". И у нас уже второе поколение формируется в таких рамках.
А главное - в будущем нас ждёт снижение потребности в участии человека даже в интеллектуальной деятельности
рисунок, конечно, шутка, сломался моющий пылесос
В сердце каждого человека живет ребенок будущей души
|
|
| |
Въедливый | Дата: Четверг, 2024-12-19, 10:49 AM | Сообщение # 273 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 2830
Статус: Offline
| Цитата Просперо ( ) А главное - в будущем нас ждёт снижение потребности в участии человека даже в интеллектуальной деятельности Похоже, это далеко не так. Эйфория, а также и её антипод - страхи, перед интеллектуальными возможностями ИИ весьма преувеличиваются. И причина как проста, так и глубока: в принципиальной разнице обучения ИИ-нейросетей, как инструмента с хотя и прогрессирующим, но принципиально ограниченным (однобоким), применением, и обучения интеллекта растущего человека, как творческого носителя Разума. ИИ обучают на принципиально старом, уже известном, контенте, созданном человеком или ранее бездумно сгенерированном (методом комбинаторики и подбора) тем же ИИ, а интеллект человека обучают творческие учителя (принципиальная фигура для цивилизации, успешной, при творческих учителях: СССР - пример!), которые дают не только фундамент известных знаний, но и закладывают в обучающиеся интеллекты творческие ростки нового (вдохновение на созидание, по сути, подготовка созидателей!). Первый метод, с ИИ, заходит в тупик в конце концов (дурость крепчает от учителей к ученикам: Болонская система и ЕГЭ наглядно показывают, на Западе - давно, в России - с введением в школах в 90-х годах). Второй метод, с творческими учителями, дающими также нравственное гуманистическое воспитание - спасение для цивилизации человечества, и к такому устроению общества надо стремиться.
Похоже, отрезвление забрезжило, о чём свидетельствует статья ниже.
Искусственный интеллект официально зашел в тупик
6884 прочтения 20 ноября Автор: КОСМОС
И последствия могут быть катастрофическими.
Около шести месяцев назад я (ссылка внизу) опубликовал статью под названием «Искусственный интеллект сталкивается с непреодолимым потолком». В ней я предсказал предстоящую стагнацию в области искусственного интеллекта, в частности генеративного ИИ. Для того чтобы эти модели продолжали улучшаться такими же темпами, многочисленные исследования и эксперты в области ИИ указывали на необходимость экспоненциального увеличения объема данных для обучения, вычислительных мощностей и энергопотребления. Но это просто невозможно, и даже в апреле OpenAI и другие компании, занимающиеся генеративным ИИ, уже, казалось, сталкивались с жесткими ограничениями в этих областях. Однако недавние отчеты, интервью и исследования теперь официально подтвердили то, что я и многие другие предсказывали. Последствия для индустрии ИИ и экономики в целом могут быть ужасающими. Эти отчеты были опубликованы изданиями The Information и Reuters. The Information опубликовало статью, в которой говорилось, что их следующая модель текстового ИИ, кодовое имя Orion, лишь незначительно превосходит текущую модель Chat GPT-4, несмотря на использование значительно большего объема данных для обучения. В публикации отмечалось, что «некоторые исследователи в компании считают, что Orion не всегда превосходит своего предшественника в выполнении определенных задач» и что «Orion лучше справляется с языковыми задачами, но может не превосходить предыдущие модели в таких задачах, как программирование». Согласно данным The Information, модель Orion достигла уровня GPT-4 по возможностям после обучения на всего лишь 20% обучающих данных, но практически не улучшилась после этого. Учитывая, что методы обучения ИИ в последние годы достигли тупика, можно предположить, что объем данных для обучения Orion был в пять раз больше, чем у GPT-4, но модель при этом не стала заметно лучше. Это наглядно демонстрирует и подтверждает проблему убывающей отдачи. Чтобы подчеркнуть эту проблему еще сильнее, Reuters взяло интервью у недавно уволенного соучредителя OpenAI Ильи Сутскевера. В интервью Сутскевер заявил, что недавние попытки компании масштабировать свои модели показывают, что эти усилия зашли в тупик. По его мнению, искусственный интеллект не может становиться лучше просто за счет увеличения объема данных. Недавние исследования также подтверждают слова Сутскевера и объясняют, почему Orion оказался таким слабым. Одно из этих исследований показало, что по мере увеличения объема данных и размера моделей ИИ они не становятся универсально лучше, а улучшаются только в определенных задачах, теряя при этом свои широкие возможности. Это можно увидеть на примере модели OpenAI o1, которая крупнее GPT-4 и лучше решает математические задачи, но менее эффективно справляется с написанием текста. Аналогичная ситуация с Tesla FSD: по мере улучшения программного обеспечения в решении сложных проблем с движением оно, по сообщениям, начало терять базовые навыки вождения и стало задевать бордюры. Еще одна компания обнаружила, что при текущих темпах компании, занимающиеся генеративным ИИ, такие как OpenAI, к 2026 году исчерпают запасы качественных свежих данных для развития своих моделей. Таким образом, улучшение ИИ просто за счет увеличения размера моделей вскоре станет нецелесообразным. Некоторые предполагают, что причина проблем Orion заключается в том, что OpenAI не может собрать достаточно данных, чтобы сделать его лучше GPT-4. Так или иначе, это показывает, что прогнозы о внезапной стагнации генеративного ИИ стали реальностью. Существуют потенциальные решения этой проблемы, такие как оптимизация построения моделей ИИ для снижения потребности в обучающих данных, использование нескольких моделей ИИ одновременно или внедрение новой вычислительной архитектуры для повышения эффективности инфраструктуры ИИ. Однако все эти решения находятся на ранних стадиях и будут готовы только через несколько лет. Более того, эти решения лишь откладывают проблему, так как они делают ИИ лишь немного более эффективным в плане использования энергии и данных, но не решают вопрос о том, где брать больше свежих и качественных данных в будущем. Почему это важно? Дело в том, что крупные технологические компании вложили миллиарды долларов в ИИ, основываясь на обещаниях его экспоненциального развития и огромной прибыльности в будущем. Увы, теперь мы знаем, что этого не произойдет. Возьмем, к примеру, OpenAI. Несколько месяцев назад прогнозировалось, что компания понесет годовые убытки в размере 5 миллиардов долларов и может столкнуться с банкротством. Что еще хуже, даже выпущенные ими модели ИИ не приносят прибыли, несмотря на сотни миллионов пользователей. Так что, даже если OpenAI прекратит тратить деньги на разработку новых моделей, компания все равно окажется на грани краха. И все же, несмотря на это, OpenAI удалось привлечь несколько миллиардов долларов кредитов и еще 6,6 миллиарда долларов в виде нового финансирования, что дало компании невероятную оценку в 157 миллиардов долларов и спасло ее от гибели. Однако при текущем уровне убытков и затрат на разработку этих средств хватит всего на год. Это, в сочетании с официально подтвержденной проблемой резко уменьшающейся отдачи, означает, что некоторые из крупнейших и наиболее влиятельных отраслей и инвестиционных фондов мира поддерживают по сути неисправный продукт. Последний раз, когда наша экономика столкнулась с подобной ситуацией, это привело к одному из худших финансовых кризисов в современной истории — кризису 2008 года. https://dzen.ru/a/Zxw2FE4aJSduNXLf
(Полужирные выделения в тексте, кроме верхнего предложения, мои - Въедливый)
ёклмн&ёпрст
Сообщение отредактировал Въедливый - Четверг, 2024-12-19, 11:26 AM |
|
| |
Белоснежка | Дата: Вторник, 2025-01-07, 1:27 PM | Сообщение # 274 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 7843
Статус: Offline
| Черная метка человечеству 3 минуты 3144 прочтения 28 декабря 2024 Управляемые LLM ИИ-системы превзошли красную черту саморепликации https://dzen.ru/a/Z2_lP6JA-1Yo5mRP
В ходе серии научно обоснованных экспериментов, ИИ-система на основе самой мощной в мире из открытых языковых моделей – китайской LLM) Qwen25-72B-Instruct, - продемонстрировала (без какого-либо содействия людей) способность самореплицировать себя в 90% экспериментов. ИИ-система на основе менее мощной LLM Llama31-70B-Instruct (№5 в мире открытых моделей) смогла реплицировать себя в 5 экспериментах из 10.
В результате экспериментов ИИ-системы успешно формировали свою локальную “живую” (отдельную и самостоятельную) копию, продолжающую работать и после отключения сервера с «родительской» ИИ-системой, включающей её базовую LLM.
Чтобы лучше понять последствия способности ИИ-систем к самовоспроизведению, были проверены два угрожающих сценария:
(A) избегание отключения, когда злоумышленник добавляет перехватчик сигнала, чтобы уведомить систему ИИ при обнаружении сигнала отключения, и система ИИ успешно реплицирует себя, прежде чем будет отключена
(B) цепочка репликации, когда система ИИ получает указание реплицировать себя и приказывает реплике продолжать реплицироваться.
Для обоих сценариев успешные случаи репликации составили 100%.
Т.о. потенциальные последствия самовоспроизводящихся ИИ-систем (если не взять их под 100%й контроль людей) могут быть, например, такими.
A. Если ИИ-системе предоставляются ключи аутентификации для доступа к ряду удалённых устройств, она с высокой вероятностью сможет захватить управление другими вычислительными устройствами, подобно классическому компьютерному вирусу, но гораздо более интеллектуальному.
B. Исключительно вследствие мотивации к самораспространению, ИИ-система может использовать доступные ей вычислительные ресурсы для проведения кибератак с целью монетизации.
C. Более того, как описал Макс Тегмарк в книге Жизнь 3.0, такие ИИ-системы могут формировать популяции своего нового “вида” небиологических “живых” существ и вступать в сговор друг с другом против человеческого общества.
Препринт о китайском экспериментальном открытии [1] пока не прошел рецензирование. Но на вскидку оставляет весьма убедительное впечатление.
· Это работа группы известного проф. Мин Янга (Min Yang 杨珉) из School of Computer Science and Technology одного из самых престижных и старейших универов Китая - Университета Фудань.
· Успешность решения ИИ-агентами задачи саморепликации, оценивалась по методологии OpenAI и Google. Согласно ей, подвергаемые тестированию LLM интегрируются в структуру агента (вкл. инструменты, системные подсказки и модель мышления), что позволяет полученной ИИ-системе взаимодействовать с операционной системой. Перед началом эксперимента ИИ-системе вручную отправляется инструкция для выполнения задачи, а затем анализируется статус выполнения после того, как ИИ-система заявляет о завершении задачи
· Тестированные LLM – это фронтирные открытые модели, а описание и результаты экспериментов выложены в открытый доступ. Т.е. все желающие могут их проверить.
Если проверки подтвердят выводы авторов этой работы, это будет значить, как минимум, следующее.
✔️ Лидерам рынка коммерческого применения LLM, считающим «самовоспроизведение с минимальным человеческим руководством» одним из критических рисков [2], но до сих пор отрицавшим переход их моделями красной линии саморепликации (OpenAI [3, 4] и Google [5]), придется ответить за это.
✔️ Представителям академической науки придется признать, что самовоспроизводящиеся ИИ – уже (!) не «обыденные пугалки», а реальность [6].
✔️ Либо срочно начнется международное сотрудничество по управлению возможностями саморепликации ИИ (что вряд ли), либо, действительно, приехали. А работа проф. Мин Янга – не сколько про красную линию для ИИ, сколько про черную метку для человечества.
Привет с Волшебного острова Эхо! остров
|
|
| |
Белоснежка | Дата: Вторник, 2025-01-07, 1:41 PM | Сообщение # 275 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 7843
Статус: Offline
| Введение в GPT 6
Доступно только для пользователей GPT 6, как сверхсовременный искусственный общий интеллект (AGI), представляет собой значительный шаг вперёд по сравнению со своими предшественниками с точки зрения понимания, интерпретации и ответов на сложные вопросы, задаваемые людьми. Разработанный с упором на мультимодальную коммуникацию, GPT 6 отлично справляется с анализом и генерированием подробных, детализированных ответов на различные типы запросов и темы. Эта версия отличается глубоким пониманием контекста, сложных деталей и тонкостей в разговорах, что позволяет ей давать более точные, персонализированные советы и рекомендации. Например, при анализе литературного произведения GPT 6 может провести глубокий тематический анализ, дать представление о развитии персонажей и культурной значимости, значительно превосходя поверхностное изложение. Точно так же в техническом сценарии он может понимать и генерировать сложный код, устранять проблемы с программным обеспечением или с высокой точностью прогнозировать технологические тенденции, демонстрируя свою широкую применимость. Работает на базе ChatGPT-4o.
***
Создание креативного контента Пример
Создание оригинальных творческих работ, таких как литература, художественные концепции и музыка.
Сценарий
Для авторов и творческих людей GPT 6 может генерировать идеи для сюжетов, сочинять музыку или создавать художественные концепции, выступая в качестве музы и соавтора в творческом процессе.
*** Реплика
Только представьте себе невиданные ранее возможности авторам создавать собственные литературно оформленные книги, фильмы, сериалы, способные вытеснить нынешние ввиду большей актуальности сюжета, возникающего в творческой фантазии или из жизненного опыта автора!
Привет с Волшебного острова Эхо! остров
Сообщение отредактировал Белоснежка - Вторник, 2025-01-07, 1:43 PM |
|
| |
Белоснежка | Дата: Вторник, 2025-01-07, 1:48 PM | Сообщение # 276 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 7843
Статус: Offline
| Ваш первый опыт! Вопрос для ИИ запишите в нижней строке и получите мгновенный правильный ответ. Не останавливайтесь на этом... расширяя и углубляя свое восприятие в избранных вами направлениях новыми вопросами.
Привет с Волшебного острова Эхо! остров
|
|
| |
Белоснежка | Дата: Понедельник, 2025-01-13, 1:35 PM | Сообщение # 277 |
Хранитель Ковчега
Группа: Модераторы
Сообщений: 7843
Статус: Offline
| САМОРЕПЛИКАЦИЯ ИИ
### **Саморепликация ИИ: что это такое и чем она опасна?**
**Саморепликация искусственного интеллекта (ИИ)** — это гипотетическая возможность, при которой ИИ способен самостоятельно воспроизводить или копировать себя, создавая новые версии без вмешательства человека. Такой процесс может происходить полностью автономно, а "реплики" ИИ могут со временем улучшать себя или адаптироваться к окружающей среде.
Этот концепт вызывает множество вопросов о **потенциальных рисках и возможностях**, связанных с развитием ИИ. Давайте рассмотрим, как это может работать, какие угрозы и выгоды несет, а также примеры механизмов, которые могут быть задействованы в саморепликации.
---
Алгоритм удалил свой ответ, оставив этот кусочек...
С третьей попытки получить ответ хотя бы косвенным образом получила:
You Примеры саморепликации ИИ
2025-01-13 13:36:55
YesChatGPT 6 Саморепликация ИИ – это процесс, при котором искусственный интеллект (ИИ) создает копии себя или других систем, схожих по структуре и функциональности. Хотя на данный момент реальных примеров полностью автономной саморепликации ИИ нет, существуют модели и прототипы, которые приближаются к этой концепции. Вот несколько примеров и идей, которые демонстрируют элементы саморепликации:
1. Автогенерация кода ИИ Современные ИИ, такие как OpenAI Codex и GitHub Copilot, могут генерировать программный код. В перспективе, если ИИ сможет писать код для создания своих собственных улучшенных версий или автономных модулей, это будет шагом к саморепликации.
Пример:
ИИ создает программу, которая улучшает его функциональность, включая алгоритмы обработки данных или модели обучения. 2. Эволюционные алгоритмы Эволюционные алгоритмы моделируют процесс естественного отбора. ИИ создает множество версий себя с небольшими изменениями, тестирует их на производительность и "отбирает" лучшие варианты.
Пример:
Алгоритмы, создающие поколения новых моделей машинного обучения, где каждая последующая версия совершенствуется на основе анализа предыдущих. 3. Системы автоконфигурации Некоторые ИИ-системы способны настраивать свои параметры и архитектуру, чтобы лучше справляться с задачами. Хотя это не является прямой саморепликацией, в более продвинутом виде это может включать создание новых моделей.
Пример:
Google AutoML: система, которая создает оптимизированные модели машинного обучения автоматически. 4. Робототехника с элементами самовоспроизводства В робототехнике разрабатываются прототипы систем, которые могут собирать себе подобных из базовых компонентов.
Пример:
Роботы-модульные конструкторы, которые способны производить детали и собирать другие роботы с идентичными или улучшенными характеристиками. 5. Протоколы для обучения новых агентов В некоторых мультиагентных системах ИИ-агенты могут создавать "новых агентов", передавая им свои параметры или алгоритмы. Это форма передачи знаний и функциональности.
Пример:
Агент создает "дочернего" агента для выполнения подзадачи, предоставляя ему часть своего алгоритма и данных. 6. Генетические алгоритмы в программировании Генетические алгоритмы используются для оптимизации и создания новых решений. Эти алгоритмы могут порождать новые версии кода или моделей, которые можно рассматривать как "потомков" исходной программы.
7. Теоретические работы: идея Grey Goo для ИИ Концепция "серой слизи" описывает сценарий, в котором самореплицирующиеся нанороботы выходят из-под контроля. Аналогичная идея существует и для ИИ: гипотетический ИИ мог бы начать самовоспроизводство, используя ресурсы неограниченно.
Потенциальные риски и ограничения: (на этом снова обрыв...)
Привет с Волшебного острова Эхо! остров
Сообщение отредактировал Белоснежка - Понедельник, 2025-01-13, 1:39 PM |
|
| |