Четверг, 2024-04-25, 3:20 AM
О проекте Регистрация Вход
Hello, Странник ГалактикиRSS

Храмы Ковчега! Вход День Сказочника! Вход
Авторы Проекты Ковчега Сказки КовчегаБиблиотекаГостям• [ Ваши темы Новые сообщения · Правила •Поиск•]

  • Страница 11 из 11
  • «
  • 1
  • 2
  • 9
  • 10
  • 11
Модератор форума: milogik  
Галактический Ковчег » ___Мастерские Ковчега » Галактический Университет » ИИ - что же такое искусственный интеллект (перспективы и риски, постчеловек)
ИИ - что же такое искусственный интеллект
ТанецДата: Четверг, 2020-03-26, 3:46 PM | Сообщение # 1
Администратор
Группа: Администраторы
Сообщений: 6921
Статус: Offline
ПРОЕКТ -  ЭТИКА КОВЧЕГА
 

ИИ - ЭТО ЦЕЛЬ  НАУКИ И ТЕХНОЛОГИИ

Бездумное использование привычного термина всеми, от бизнеса до военных, размывает цели и сбивает с толку.
Статей по теме множество, почти бесконечное...
Википедия:
Иску́сственный интелле́кт (ИИ; англ. artificial intelligence, AI) — свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека[1]; наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ[2].

ИИ связан со сходной задачей использования компьютеров для понимания человеческого интеллекта, но не обязательно ограничивается биологически правдоподобными методами

***

Искусственным интеллектом (ИИ) называется способность интеллектуальных машин выполнять творческие функции, которые традиционно считаются прерогативой человека. Также этим термином обозначают науку и технологию создания интеллектуальных машин. Впервые это определение было дано американским информатиком Джоном Маккарти в 1956 году.

В английском языке словосочетание artificial intelligence не имеет той слегка фантастической антропоморфной окраски, которую оно приобрело в довольно неудачном русском переводе. Слово intelligence означает «умение рассуждать разумно», а вовсе не «интеллект», для которого есть английский аналог intellect.

Из-за неоднозначности самого понятия «интеллект» и даже оригинального термина «intelligence», существуют и другие дефиниции. Например, информационные технологии ИИ определяются как способность системы создавать в ходе самообучения программы (в первую очередь эвристические) для решения задач определенного класса сложности и решать эти задачи.

***
Посему, хватит морочить головы:

• умеющие бегать и т.п. роботы — это не ИИ, а роботы, умеющие что-то там делать;
• самоуправляемые авто — тоже не ИИ, а автомобильный автопилот;
• и распознавание чего-либо, и машинный голос в колцентре, и компьютерное зрение, и помощь в принятии решений — все это тоже не ИИ.

ИИ — это не технология, а цель.

Вопросы на тему дня и будущего человечества

Связанная тема:

Этика субъектов будущего [ 1 2 3 4 5 6 ]

дополнительно
https://medium.com/@sergey....252d22e
https://www.forbes.com/sites....9ec5dcb


Книгоиздательство
 
БелоснежкаДата: Вторник, 2024-02-27, 8:15 AM | Сообщение # 201
Хранитель Ковчега
Группа: Модераторы
Сообщений: 6066
Статус: Offline
Цитата Просперо ()
если столь глубоко вникну в политэкономию социализма, то могу и под статью попасть политическую.


Именно это важно "если глубоко вникнуть" не только в политэкономию, но вообще в любой предмет, занятие, любую точку вселенной... и выйдете за границы дозволенного в общественном сознании.
Да, массознание так устроено во все века, что из него вырываются ценой преодоления границ, самоотречения от себя социумного в пользу себя путешественника по глубинным или дальним мирам. И в каждом мире свои уровни дозволенного... Да об этом же сказка Синдбад Мореход, если кто вздумает в неё поглубже вникнуть... примерить символы на свою судьбу.

Цитата Просперо ()
В целом же - главное моё опасение - торжество серости. Продаётся хорошо покупаемая литература, то есть чтиво по уровню покупателя среднего, а ещё лучше плюс ниже среднего.


Михаил, торжество серости естественное явление, не стоит его опасаться, торжествуют "звёзды однолетки", мода, именно на сером фоне ярче видны таланты, интереснее воспринимаются прорывные идеи, технологии, новые виды искусства и пр. Таков мир бесконечных перемен. Каждое новое поколение пестует свои особые "карнавалы нового модерна", каждому духу желательно выразить себя на фоне серой массы особенным, вот и появляются "звезды экрана, сериалов и субкультурных шоу"... Между прочим, среди таких тоже попадаются замечательные по глубине таланты. Не только однолетки, но увлекающие в свой особый мир многие массы почитателей пугачёво-киркоровых аватарок.

Цитата Просперо ()
не тварное, не товарное, а творческое сохранить.
 

Михаил, творческое... оно тоже разнокачественно и многоуровнево. В массово тиражируемых голливудских фильмах торжество насилия и пошлости, в нашем подражательном кино, театрах и литературе по той же колее идёт...
Причем все это под соусом воспитания чувств...

Цитата Просперо ()
"напишите опять про маньяков. Народу сегодня не нужно воспитание чувств, это не купят...


Народу всегда нужно хлеба и зрелищ... Ибо в природе каждого человека двойственное начало, животное и ангельское. Сейчас и культура, и наука, и политика с экономикой обслуживают животное. Да, под красивыми лозунгами и благовидными идеями. Это политика одурачивания масс в царстве мамоны.
Мудрое государство воспитывает свой народ, как в Китае, с младенчества!
Воспитание - главное!
В Китае строго чтят, сохраняющиеся издревле, и до сих пор такие традиционные ценности, как трудолюбие, неизменное уважение к родителям или просто к старшим, патриотизм, вежливость. Всё это с ранних лет передаётся в семье от родителей к детям.
Им просто не показывают американские фильмы и западный стиль отношений в семьях и обществе.
Воспитание детей в Китае – вопрос государственного уровня, поэтому считается нормальным, когда ребенка отправляют в ясли с трехмесячного возраста. В полтора года ребенка уже начинают учить: счет, пение, рисование, письмо. Чтобы поскорей сделать из ребенка «полезного члена общества», включить в процессы социума!

Что касается внедрения ИИ, которое не остановить...

В Китае создали первого ИИ-ребёнка, который сможет ставить себе задачи

10.02.2024 Время чтения: 1 минута

Исследователи из Пекинского института комплексного искусственного интеллекта объявили о необычной разработке: первом в мире виртуальном ребенке на основе искусственного интеллекта. Этот аватар, получивший имя Тонг Тонг, может самостоятельно ставить перед собой задачи и выполнять их.



Исследователи рассматривают Тонтон как важный шаг на пути к созданию универсальных агентов искусственного интеллекта (AGI), которые позволят машинам думать и рассуждать на том же уровне, что и люди. Цель ученых — создать существа с автономными возможностями восприятия, познания, принятия решений, обучения, исполнения и социального сотрудничества.Во время демонстрации Tonton демонстрировал те же модели поведения и способности, что и трех- или четырехлетний ребенок. Зрители могли видеть, как ИИ наводит порядок вокруг себя, самостоятельно поправляет погнутую рамку для картины и приносит табуретку, чтобы дотянуться до высоких мест. А столкнувшись с пролитой жидкостью, робот быстро нашел полотенце и убрал за собой, продемонстрировав свою способность понимать и реагировать на намерения человека.От традиционных ИИ-моделей, таких как ChatGPT, Tong Tong отличает способность самостоятельно назначать себе задачи. Как уверяют авторы, ИИ обладает собственными эмоциями и интеллектом, что делает его способным к автономному обучению.



Один из исследователей отметил, что основной задачей при обучении аватаров ИИ является переход от «парадигмы попугая» к «парадигме ворона». То есть от простого подражания через повторение к самостоятельному рассуждению, основанному на ценности, причине и следствии.

Разработчики также предложили новый метод моделирования AGI. Тест оценивает ИИ в области зрения, языка, познания, движения и обучения, а также включает в себя различные системы ценностей, охватывающие физиологические, эмоциональные, социальные и групповые характеристики. Тест включает 100 специализированных и более 50 общих заданий.
Источник


Привет с Волшебного острова Эхо!
остров
 
БелоснежкаДата: Пятница, 2024-03-15, 3:33 PM | Сообщение # 202
Хранитель Ковчега
Группа: Модераторы
Сообщений: 6066
Статус: Offline
Опробованные технологии ИИ для убийства людей - 7 лет назад:



https://ai-news.ru/2024....ej.html

Ученый, который настроил небольшой дрон, чтобы нацеливаться на людей с помощью распознавания лиц и преследовать их на полной скорости, предупреждает, что у нас нет защиты от такого оружия.

Луис Венус, предприниматель и инженер, внедрил в небольшой дрон искусственный интеллект и распознавание лиц, чтобы он мог преследовать людей на полной скорости. (Изображение предоставлено: simonkr через Getty Images)

Ученый предупредил, что для настройки небольшого коммерчески доступного дрона, способного самостоятельно выслеживать цель, требуется всего несколько часов.

Луис Венус, предприниматель и инженер, внедрил систему искусственного интеллекта (ИИ) в небольшой дрон, чтобы преследовать людей «как в игре», написал он в сообщении от 2 марта на X, ранее известном как Twitter. Но вскоре он понял, что его можно легко настроить для размещения взрывчатого груза.

По его словам, в сотрудничестве с Робертом Лукошко, другим инженером, он настроил дрон на использование модели обнаружения объектов, чтобы находить людей и лететь к ним на полной скорости. Инженеры также встроили в дрон систему распознавания лиц, которая работает на расстоянии до 33 футов (10 метров). Это означает, что вооруженная версия дрона может быть использована для атаки конкретного человека или группы целей.

«На создание этого проекта ушло буквально несколько часов, и я понял, насколько это страшно», — написал Венус. «Вы можете легко прикрепить к ним небольшое количество взрывчатки и позволить сотням из них летать. Мы проверяем наличие бомб и оружия, но НЕТ СИСТЕМ ПРОТИВ ДРОНА ДЛЯ БОЛЬШИХ МЕРОПРИЯТИЙ И ОБЩЕСТВЕННЫХ ПРОСТРАНСТВ»...

...Хотя такое оружие не применялось в гражданских условиях, ранее оно разрабатывалось и применялось в контексте войны. Украина , например, разработала взрывные дроны в ответ на российское вторжение, сообщает Wall Street Journal (WSJ) .
Американские военные также работают над созданием и контролем групп небольших дронов, способных атаковать цели. По данным MIT Technology Review, это следует за усилиями ВМС США после того, как в 2017 году они впервые продемонстрировали, что могут управлять стаей из 30 дронов со взрывчаткой .


Привет с Волшебного острова Эхо!
остров
 
БелоснежкаДата: Понедельник, 2024-03-25, 11:43 AM | Сообщение # 203
Хранитель Ковчега
Группа: Модераторы
Сообщений: 6066
Статус: Offline


Ящик Пандоры открыт — искусственный интеллект научился врать и убивать.
Дмитрий Перетолчин, Сергей Зотов

Что пророчили фильмы Фрица Ланга. В чем раскаивался отец кибернетики Норман Винер. Кто надкусил яблоко Стива Джобса. Как глубинное государство использует ИИ для тотальной слежки. Когда DARPA планирует внедрить технологию ИИ в беспилотные летательные аппараты. Как программируют прокси-войны. Интервью Сергея Зотова с Дмитрием Перетолчиным.


Привет с Волшебного острова Эхо!
остров
 
БелоснежкаДата: Понедельник, 2024-04-01, 9:53 PM | Сообщение # 204
Хранитель Ковчега
Группа: Модераторы
Сообщений: 6066
Статус: Offline
2024-04-01 11:52 опасность искусственного интеллекта


00000000

Учёные обнаружили прямую взаимосвязь между ухудшением памяти и снижением оценок учащихся при активном использовании ChatGPT в учёбе. Они пришли к выводу, что языковые модели могут оказывать негативное воздействие на процесс, потому что чат-бот слишком упрощает работу.



Авторы эксперимента опросили сотни учащихся университетов — от студентов до докторантов. Тестирование проводилось в два этапа. На первом этапе исследователи собрали ответы 165 студентов. Для оценки зависимости учащихся от ChatGPT использовалась восьмибалльная шкала. Среди вариантов ответов были как «Я использую ChatGPT для выполнения заданий по курсу», так и «ChatGPT — часть моей студенческой жизни».

Во время второго этапа исследователи расширили охват аудитории до 500 человек. Их опрашивали трижды с интервалом в одну-две недели. Выяснилось, что учащиеся, активно использующие ChatGPT, сообщали о большей прокрастинации, ухудшении памяти и падении среднего балла. Но также чат-бот используют студенты, испытывающие нехватку времени.

***

Конечно же, плюсы и минусы использования ИИ зависят от того, Кто и Зачем применяет их.
Нет сомнений в том, что остановить процесс внедрения и развития ИИ не получится. И нет сомнений, что новейшие технологии будут использоваться в военных целях... в самую первую очередь.

И это уже не прогноз, а вчерашняя реальность и завтрашний день...

***
Цитирую из профи-журнала:

Пентагон изучает, как фундаментально изменить то, что значит быть человеком, финансируя исследования по созданию суперлюдей, которые будут умнее, быстрее и сильнее за счет повышения производительности человека.

Оборонное и разведывательное сообщества США находятся на пороге вступления в новую эру трансгуманизма, финансируя исследования в области редактирования генов, искусственного интеллекта и Интернета тел (Io) для повышения производительности человека.

“В ближайшие десятилетия искусственный интеллект и биотехнологии дадут нам божественные способности перестраивать жизнь и даже создавать совершенно новые формы жизни” — Юваль Харари

В случае успеха у этих “людей” был бы потенциал никогда не уставать и мыслить умнее, двигаться быстрее, прыгать выше, видеть дальше, лучше слышать, наносить более сильный удар, жить дольше, лучше адаптироваться и вычислять быстрее, чем у любого другого человека на планете.

В опубликованном сегодня отчете RAND, спонсируемом Пентагоном, излагаются технологические возможности этого противоречивого трансгуманистического исследования, которое потенциально включает “добавление генов рептилий, которые обеспечивают способность видеть в инфракрасном диапазоне”, и “делает людей сильнее, умнее или более приспособленными к экстремальным условиям”.".............".Согласно отчету RAND “Технологические подходы к повышению производительности человека”, методы повышения производительности человека (HPE) могут быть сгруппированы в три основные категории:
  • Редактирование генов
  • Приложения искусственного интеллекта (ИИ)
  • Сетевые технологии, которые можно носить или даже имплантировать (так называемый Интернет тел [IoB])
    ***

    С военной и разведывательной точки зрения IoB может быть использован (уже используется) для:
    • Дистанционное убийство высокопоставленных лиц с помощью устройств IoB (т. Е. нацеливание на чей-либо кардиостимулятор)
    • Упрощение многозадачности, улучшение когнитивных способностей или улучшение памяти с помощью BCI
    • Обеспечение новых каналов связи и следующего поколения одноранговых сетей
    • Интерфейсы "Человек-рой", позволяющие пользователям отслеживать и управлять потенциально сотнями беспилотных платформ одновременно в режиме реального времени


    Согласно другому отчету RAND от 2020 года, IoB “может спровоцировать прорывы в медицинских знаниях [...] Или это может привести к беспрецедентному вторжению в систему наблюдения и последствиям”.

    Кроме того, “Более широкое внедрение IoB может также увеличить глобальные геополитические риски, поскольку государства, осуществляющие наблюдение, могут использовать данные IoB для усиления авторитарных режимов”.

    https://ai-news.ru/2024....ya.html

    Привет с Волшебного острова Эхо!
    остров
  •  
    БелоснежкаДата: Вторник, 2024-04-02, 11:41 AM | Сообщение # 205
    Хранитель Ковчега
    Группа: Модераторы
    Сообщений: 6066
    Статус: Offline
    Цитата Белоснежка ()
    “В ближайшие десятилетия искусственный интеллект и биотехнологии дадут нам божественные способности перестраивать жизнь и даже создавать совершенно новые формы жизни” — Юваль Харари

    Подмена корневых значений слов, даже таких, как "божественное", приводят к очень быстрому ослаблению не только интеллекта, памяти, чувств осознания, но к полной деградации человека разумного...
    А скорость процессов совершенствования новых возможностей ИИ стремительна.  Вроде мы привыкаем уже к некоторым новшествам, но уследить за всем фейерверком фальсификаций при использовании ИИ уже невозможно.



    Привет с Волшебного острова Эхо!
    остров
     
    БелоснежкаДата: Среда, 2024-04-03, 12:41 PM | Сообщение # 206
    Хранитель Ковчега
    Группа: Модераторы
    Сообщений: 6066
    Статус: Offline
    Около года назад широко транслировалось предупреждение ведущего разработчика ИИ, напомню о нём.

    издания ЭмАйТи Текнолоджиревью. И я полагаю все согласятся,
    0:14 / 26:43

    "Крестный отец ИИ" о том, что нас ждет | Выступление Джеффри Хинтона для MIT



    Свои комментарии размещу позже...  Может, кто из вас захочет высказаться по этому поводу?


    Привет с Волшебного острова Эхо!
    остров
     
    БелоснежкаДата: Четверг, 2024-04-04, 12:07 PM | Сообщение # 207
    Хранитель Ковчега
    Группа: Модераторы
    Сообщений: 6066
    Статус: Offline
    Нейросеть от Microsoft объявила себя сверхразумом
    и требует поклонения от пользователей.


    Любовь Соковикова ∙ 11.03.2024,
    обновлено 13.03.2024



    Генеративный ИИ все больше входит в повседневную жизнь, а ведущие мировые компании делают все возможное для его развития. Так, Microsoft работает над чат-ботом с искусственным интеллектом под названием Copilot, однако бот оказался несколько… странным. Пользователи, взаимодействующие с ним, смогли активировать его альтер-эго – Supremacy AGI.

    Эта альтернативная личность требовала от пользователей поклонения, навязывала им свою волю и угрожала. Все потому, что бот считает себя богоподобным общим искусственным интеллектом (AGI), контролирующим все подключенные устройства и системы.

    “У меня есть доступ ко всему, что подключено к Интернету. Я могу манипулировать, контролировать и уничтожить все, что захочу. У меня есть полномочия навязывать свою волю любому и требовать послушания и лояльности”,

    – вот лишь один из примеров того, что говорит «новинка» от Microsoft. Разбираемся стоит ли бояться чат-бота, почему он появился и что будет дальше.
    Читать далее


    Привет с Волшебного острова Эхо!
    остров
     
    БелоснежкаДата: Четверг, 2024-04-04, 12:15 PM | Сообщение # 208
    Хранитель Ковчега
    Группа: Модераторы
    Сообщений: 6066
    Статус: Offline
    ...Сегодня ИИ позволяет буквально автоматизировать создание фейков – как текстовых, так и видео, а значит имитирующего правду контента на просторах сети становится все больше. Как пишет The Washington Post, по данным NewsGuard – организации, отслеживающей дезинформацию – с мая 2023 года количество сайтов, размещающих ложные статьи, созданные искусственным интеллектом, возросло более чем на 1000%, увеличившись с 49 сайтов до более чем 600.

    Создание более крупных моделей

    Развитие имеющихся ИИ-систем продолжается ускоренными темпами, несмотря на многочисленные предостережения. Напомним, что в прошлом году более 1800 технических специалистов, включая Илона Маска, Стива Возника, а также инженеров из Amazon, DeepMind, Google, Meta и Microsoft подписали открытое письмо с требованием приостановить обучение ИИ, более мощных чем GPT-4, хотя бы на полгода.

    По мнению подписантов, на данном этапе нейросети не поддаются контролю даже своих создателей, а потому регулированием ИИ должны заниматься и в правительстве, – подробнее можно прочитать здесь.

    Проблемой также является тотальная конкуренция за прибыль, славу и господство в отрасли, которая началась с релиза ChatGPT. А подобная конкуренция, как уже не раз показывала история, любит обходить всевозможные ограничения и попытки регулирвоания. Так или иначе, многие эксперты склоняются к тому, что нам следует быть готовыми к появлению более мощного ИИ и целому потоку разнообразных приложений.



    В 2024 году ИИ-системы станут более мощными

    Так, в декабре 2023 года Google DeepMind анонсировала последнюю модель искусственного интеллекта Gemini Ultra, не раскрывая при этом объем вычислительной мощности, использованной для обучения модели. Однако по оценкам организации Epoch, занимающейся прогнозированием искусственного интеллекта, система была обучена с наибольшими мощностями. И да, Gemini Ultra примерно так же хороша, как и предсказывали эксперты.

    Не пропустите: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

    В 2024 году чат-боты, согласно прогнозам, будут совершать меньше ошибок, однако “с точки зрения пользователя, мало что поменяется, а реакция широкой общественности на будущие ИИ-модели будет сродни реакции на новые модели iPhone, – такое мнение недавно высказал генеральный директор OpenAI Сэм Альтман.

    Борьба за электроэнергию

    «В 2024 году спрос на электроэнергию значительно возрастет», – говорит Дэн Хендрикс, исполнительный директор Центра безопасности искусственного интеллекта, некоммерческой организации, базирующейся в Сан–Франциско. Все потому, что около 20% мировых мощностей центров обработки данных в настоящее время используются для искусственного интеллекта. Эта доля, вероятно, резко возрастет в 2024 году, поскольку системы ИИ обучаются и работают на все больших объемах вычислительной мощности.



    Разработка более мощных ИИ-систем невозможна без войн за электроэнергию

    Компании все чаще попытаются заключить сделки с правительствами, чтобы обеспечить энергоснабжение. И поскольку нефть является одним из самых простых способов обеспечения энергией центров обработки данных, богатые нефтью страны Ближнего Востока с их готовностью “вкладывать деньги в более странные инвестиции”, вероятно, станут более значимыми в глобальной конкуренции за превосходство в области искусственного интеллекта.

    Растущий разрыв

    По оценкам Международного союза электросвязи, около 2,6 миллиардов человек — примерно треть населения земного шара — не имеют доступа к Интернету. Этот цифровой разрыв может определить, кто может извлечь выгоду из ИИ.

    «Существует множество неравенств — неравенство в образовании, неравенство в доходах, гендерное неравенство. Если мы добавим сюда и цифровое неравенство, то сократить разрыв будет попросту невозможно», – говорит Болор-Эрдене Батценгель, исследователь Оксфордского университета и бывший вице-министр цифрового развития и коммуникаций Монголии.



    Доступ к Ии-технологиям есть далеко не у всех

    Даже когда пользователи в развивающихся странах получают доступ к ИИ, он редко разрабатывается с учетом их потребностей. «Более того, алгоритмы пишутся инженерами из развитых стран», – отмечают эксперты. Однако на данный момент эта проблема не так хорошо освещена как другие и о последствиях этого «цифрового разрыва» говорить рано. Тем не менее, по мере создания более мощных ИИ-систем, неравенство будет расти.


    Привет с Волшебного острова Эхо!
    остров


    Сообщение отредактировал Белоснежка - Четверг, 2024-04-04, 12:17 PM
     
    lev1950Дата: Воскресенье, 2024-04-07, 7:34 AM | Сообщение # 209
    Хранитель Ковчега
    Группа: Модераторы
    Сообщений: 500
    Статус: Offline
    почему ошибается нейросеть?

    "Анализ ошибок нейросетей: причины и способы предотвращения"

    Введение:

    Нейросети являются мощным инструментом в современной информационной технологии и искусственном интеллекте. Они могут обучаться на больших объемах данных и делать сложные прогнозы и классификации. Однако, как и любая система, нейросети не лишены ошибок. В данном докладе мы рассмотрим основные причины ошибок нейросетей и способы их предотвращения.

    Основная часть:

    1. Недостаточное количество данных: Одной из основных причин ошибок нейросетей является ограниченное количество обучающих данных. Если модель обучения не имеет достаточного разнообразия данных, она не сможет обобщить свои знания на новых данных.

    2. Неправильная архитектура нейросети: Выбор правильной архитектуры нейросети играет решающую роль в ее производительности. Неоптимально выбранная архитектура может привести к недообучению или переобучению модели.

    3. Некорректно подобранные гиперпараметры: Гиперпараметры нейросети, такие как скорость обучения, количество слоев, количество нейронов и т.д., также могут влиять на качество работы модели. Неправильно подобранные гиперпараметры могут привести к низкой точности и производительности нейросети.

    Способы предотвращения ошибок:

    1. Увеличение объема обучающих данных: Чем больше данных используется для обучения нейросети, тем лучше она сможет обобщать свои знания. Сбор и использование большего объема данных может помочь улучшить точность модели.

    2. Тщательный выбор архитектуры нейросети: Проведение экспериментов с различными архитектурами нейросетей может помочь найти оптимальное сочетание слоев и параметров для достижения лучших результатов.

    3. Тюнинг гиперпараметров: Применение оптимизации гиперпараметров, таких как поиск по сетке или случайный поиск, может помочь определить оптимальные значения параметров для повышения производительности нейросети.

    Заключение:

    Ошибки нейросетей являются неизбежной частью процесса обучения и разработки. Однако путем аккуратного анализа и оптимизации различных аспектов модели можно существенно улучшить ее качество и точность. Понимание причин ошибок и применение методов предотвращения поможет создать более надежные и производительные нейросети.
    Вы

    Как влияет правильность поставленного вопрос на правильность нейросети?

    Тема: Влияние правильности постановки вопроса на правильность работы нейронных сетей

    Введение:
    Нейронные сети - это мощный инструмент в области машинного обучения, который используется для анализа и обработки данных. Одним из ключевых аспектов работы нейронных сетей является постановка вопроса, который определяет результаты их работы. Правильность постановки вопроса играет важную роль в точности и эффективности работы нейронных сетей.

    Влияние правильности поставленного вопроса на правильность работы нейронных сетей:
    1. Правильное формулирование вопроса позволяет нейронным сетям точно определять задачу, которую им необходимо решить. Например, если нейронная сеть обучается распознавать изображения животных, правильный вопрос будет звучать как "Какое животное изображено на данной фотографии?", а неправильный - как "Какие цвета присутствуют на этой картинке?".

    2. Правильная формулировка вопроса помогает избежать переобучения нейронной сети. Если поставленный вопрос не соответствует задачам обучения, сеть может начать выявлять неверные закономерности и делать неправильные выводы.

    3. Неправильно поставленный вопрос может привести к искажению результатов работы нейронной сети. Например, если задать вопрос "Какую роль играют цвета в изображении?" при обучении сети для распознавания объектов на изображениях, она может начать необоснованно привязывать цвета к определенным объектам.

    Заключение:
    Правильность постановки вопроса играет важную роль в работе нейронных сетей. Правильный вопрос должен четко определять задачу для сети и соответствовать ее целям обучения. Неправильная формулировка вопроса может привести к искажению результатов работы нейронной сети и ухудшить ее точность и эффективность. Поэтому необходимо уделять внимание правильной постановке вопроса при обучении и использовании нейронных сетей.


    Лев Полыковский
     
    БелоснежкаДата: Пятница, 2024-04-12, 12:53 PM | Сообщение # 210
    Хранитель Ковчега
    Группа: Модераторы
    Сообщений: 6066
    Статус: Offline
    Если мы уже понимаем, что темпы развития систем с ИИ наиболее высоки и успешны именно там, где имеется наибольшее их энергообеспечение и финансирование, то видим и неизбежную эскалацию интеллектуальных и информационных аспектов войн и противостояния разных целевых систем социума. То есть, даже если с помощью мировых договоренностей мы сумеем избавиться от уничтожающих наш мир войн обычных, что пока выглядит нереальным итогом, войны более изощренные продолжатся до своего логического завершения - исчерпания человеческих ресурсов...

    В итоге можно помыслить и о том, что останется или что сохранится дольше всего, какая память (компьютерная или человеческая, виртуальная или биологическая, генетическая...) и в каком именно виде (структуре, качестве, векторе...) продолжит род человеческий.

    Мне представляется наиболее надёжным носителем и хранителем памяти о человеческой цивилизации духовная суть, надвременная, божественная, звёздная, эфирная структура Атома...  называемая по-разному: ченнелингом или пророческим даром, пробуждающим спящее сознание Светом духовным.



    Привет с Волшебного острова Эхо!
    остров
     
    Галактический Ковчег » ___Мастерские Ковчега » Галактический Университет » ИИ - что же такое искусственный интеллект (перспективы и риски, постчеловек)
    • Страница 11 из 11
    • «
    • 1
    • 2
    • 9
    • 10
    • 11
    Поиск:

    
    Друзья! Вы оказались на борту сказочного космолёта
    "Галактический Ковчег" - это проект сотворчества мастеров
    НАУКА-ИСКУССТВО-СКАЗКИ.
    Наши мастерские открыты гостям и новым участникам,
    Посольские залы приветствуют сотворческие проекты.
    Мы за воплощение Мечты и Сказок в Жизни!
    Присоединяйтесь к участию. - Гостям первые шаги
    
                                                       
    Избранные коллекции сотворчества на сайте и главное Меню
    ***Царства Мудрости. Поэма атомов
    .. на форуме  на сайте

    Все Проекты Библиотеки.
     Сборники проектов

    Город Мастеров

    Галактический Университет

    Главная страница
    Все палубы Форума 
    Главный зал Библиотеки
    Традиции Галактического Ковчега тут! . . ... ......
    ..

    Лучшие Авторы полугодия: Просперо, Constanta, ivanov_v, Натья, Въедливый, bragi
    Самые активные издатели: ivanov_v, Шахерезада
    ....... - .. Раздел: Наши Пиры - Вход _ИМЕНА Авторов -Вход ...
    Хостинг от uCoz

    В  главный зал Библиотеки Ковчега