Как искусственный интеллект используется в реальном бизнесе. Введение Что такое искусственный интеллект

На сегодняшний день у нас есть все необходимые инструменты для того, чтобы переключить ИТ на более высокие обороты и успешно развивать нашу культуру в условиях нового столетия: у нас есть высокоскоростной Интернет, облачные сервисы, интеллектуальные устройства, супермощные серверы и бурно растущий Интернет вещей. Что же в таком случае дальше делать предприятиям, чтобы отыскать свое конкурентное преимущество? А уже и так понятно, что: они добавляют дополнительные функциональные возможности посредством искусственного интеллекта. ИИ нынче является составной частью беспрецедентно большого количества приложений и объектов: носимых устройств, автомобилей, приложений для организации личного и рабочего времени; его используют в армии, здравоохранении, домашнем досуге - список можно продолжить. Тем не менее, на волне роста популярности ИИ шумиха вокруг него может сбить организации с толку, помешав тщательно оценить, какие ИИ-технологии им подходят. Ниже, основываясь на отраслевых данных, полученных старшим научным консультантом фирмы Narrative Science Крисом Хэммондом в рамках подготовки его книги «Practical Artificial Intelligence for Dummies», мы сформулируем ряд советов, которые необходимо держать в уме, пытаясь разобраться в доступных на рынке бизнес-решениях на базе ИИ.

Руководству предприятий, желающих с помощью искусственного интеллекта решать специфические бизнес-задачи, нужно тщательно изучить особенности технологии, чтобы наверняка убедиться, что выбранная ими ИИ-система хорошо подходит для актуальных проблем.

Составьте представление о фактической проблеме, которую нужно решить. Помните, что ваша цель состоит в том, чтобы решать фактические проблемы бизнеса, а не в том, чтобы просто выработать некую ИИ-стратегию. Вы должны осознавать трудности, с которыми на данный момент столкнулся ваш бизнес, знать пути их решения и искать ИИ-технологию, подходящую под этот процесс.

Узнайте, какие у вас есть варианты. Осмотритесь на рынке соответствующих услуг и добросовестно проработайте весь спектр доступных на нем систем. ИИ стал модным словечком, поэтому предложений хоть отбавляй, но нужно как можно раньше выделить среди них подходящие решения. Проведите исследование, чтобы знать, какие варианты есть в вашем распоряжении.

Узнайте ограничения, накладываемые данными. Сосредоточьтесь на имеющихся у вас данных. Возможно, у вас достаточно данных, чтобы сделать некое умозаключение или прогноз, но ни одна система не способна думать за рамками тех данных, которые вы ей скормите.

Разберитесь в потребностях вашего бизнеса. Поймите, что именно вам нужно, и руководствуйтесь этим при поиске соответствующего технического решения. Вместо того, чтобы начинать с вопроса «Как бы мне использовать ИИ?», сначала присмотритесь к насущным задачам. А уж после этого отыщите технологии, которые могут помочь в этом случае.

ИИ и машинное обучение - это два разных понятия. Не путайте машинное обучение с искусственным интеллектом. Этот принцип хорошо сформулировал консультант по большим данным Бернард Марр: «Искусственный интеллект - это более широкое понятие, подразумевающее способность машин выполнять задания методами, которые мы назвали бы интеллектуальными, тогда как машинное обучение является текущей прикладной сферой ИИ, основанной на идее, что у нас, по-хорошему, должна быть возможность просто обеспечить машинам доступ к неким данным, а они уже сами по ним обучатся».

Выясните наиболее компромиссный вариант. Всегда держите в уме плюсы и минусы специализированных и универсальных систем. Широта спектра применения любой системы прямо пропорциональна ее поверхностности. Например, если система понимает все языки, вряд ли речь идет о глубоком их понимании.

Внедрите ИИ в производственный процесс. Придумайте, как встроить вашу систему в производственный процесс и кто будет ею пользоваться.

ИИ все равно требует контроля со стороны человека. ИИ не сможет работать успешно просто потому, что он «умный». Ему нужен кто-то, кто поможет ему обучаться. В связи с этим учтите, что приобретая ИИ-технологию, вы заключаете партнерские отношения между человеком и компьютером.

Внимательно изучите вспомогательные технологии. Всегда продумывайте, как ваши системы будут взаимодействовать изнутри и снаружи. Например, если вы хотите, чтобы выходные данные вашей системы можно было проверять или давать пояснения к сделанным ею заключениям, то одного машинного обучения может оказаться недостаточно. Рассмотрите варианты с другими ИИ-технологиями, работу которых можно отслеживать и проверять, а также автоматически получать пояснения по аналитическим решениям, например, за счет усовершенствованной генерации текста на естественном языке.

Работайте с теми вендорами, которые умеют объяснить суть ИИ. Помните историю о голом короле? Не позволяйте себя запугать вендорам или ИТ-специалистам, уверяющим вас, что их продукты слишком сложны для вашего понимания. Если вы не можете понять, как работает то или иное решение, это потому что продающая его фирма не в состоянии его объяснить, а не потому, что до вас туго доходит.

Темой научного исследования является «Искусственный интеллект: перспективы развития»;

Актуальность данной темы заключается в важности развития технологии искусственного интеллекта для таких прогрессивных, на сегодняшний день, отраслей науки как робототехника, кибернетика и для более быстрого, удобного доступа к мировым информационным ресурсам. А также искусственный интеллект необходим для развития социальных услуг и для ведения кибервойн. Последняя область применения данной технологии, противоречит таким принципам свободного мира, как конфиденциальность информации и право на тайну. Но к сожаленью это сфера применения искусственного интеллекта, занимает одну из лидирующих позиций по востребованности данной технологии, уступая лишь сфере услуг и бизнесу. Из-за напряжённой международной обстановки, образования региональных конфликтов, многочисленных революций и государственных переворотов, сделало так, что искусственный интеллект воспринимается правительствами многих стран либо как угроза, если они не обладают данной технологией, либо как оружие, средство влияния.

Положительная стороной искусственного интеллекта, совместно с роботостроением является его применение в сфере услуг, а особенно социальных. Искусственный интеллект, в теле высокотехнологичного робота, наделённый человеком высокоморальными принципами, лучше любого из людей позаботится о пожилых людях или о маленьких детях. Проявит максимум внимания и заботы, при этом исключается так называемый человеческий фактор или, грубо говоря, халатность работника социальной службы. Любая инновация нуждается в спонсорах, а когда дело касается новых технологий, эти вложения становятся очень рискованными. Такие инвестиции окупаются через длительный промежуток времени. Но искусственный интеллект уже спонсирует себя сам. Схема такова, данная технология разрабатывается небольшими стартапами, по заказу крупных транснациональных компаний, чей основной бизнес - это обработка и владение огромными массивами информации. Ярким примерок такого ИТ-гиганта является Google. Она и подобные ей корпорации инвестируют огромные средства в разработку искусственного интеллекта. Как видно актуальность данного исследования, не требует доказательств. Данная технология охватывает самые прибыльные виды деятельности людей, войну и бизнес. Мы никогда не перестанем воевать и наживаться, а будем лишь подпитывать эти пагубные черты нашей личности и, если раньше для успешного введенья войны и развития предпринимательства мы использовали оружье и ростовщичество, то сейчас эти функции переходят новым технологиям, и искусственному интеллекту в частности.

Человечеству, при данных темпах развития технологий и увеличения объёмов информации, необходим помощник и не просто помощник, а разумный союзник, товарищ и друг. В роли которого должен выступить искусственный интеллект.

Целью данного исследования является разработка предложений более эффективного внедрения искусственного интеллекта в среду обитания человека, а также составление прогнозов о возможности реализации данного проекта.

Для достижения цели научного проекта были определенны следующие задачи :

1) проанализировать динамику развития технологии искусственного интеллекта за последние пять лет.

2) разработать сценарии внедрения искусственного интеллекта в человеческое сообщество.

3) определить возможные последствия после интеграции искусственного интеллекта в человеческий социум.

Объектом исследования является искусственный интеллект. Предметом исследования является рассмотрения процесса внедрения и адаптации искусственного интеллекта в человеческий социум.

Гипотезой исследования является вопрос о возможности внедрения искусственного интеллекта в человеческое сообщество, его адаптации в нем и его влияние на человека, и на мир в целом.

Методы исследования : рассмотрение материала, проведение опроса, анализ необходимой литературы, анкетирование, теоретический анализ.

Искусственный интеллект – горячая тема. Технологии, основанные на ИИ, у одних вызывают восторженный оптимизм, у других – страх и скепсис. О разрушительном потенциале искусственного интеллекта предупреждали такие авторитеты, как Илон Маск и Стивен Хокинг . Но повышенный эмоциональный накал всегда сопутствует новым явлениям, последствия развития которых непредсказуемы. Сегодня, когда технологии искусственного интеллекта только зарождаются , руководителям полезно оценить их потенциал и понять, как их эффективно использовать в своей отрасли.

1. Инвестиции в исследования и инновации

Практические результаты инвестиций в ИИ все еще остаются неясными. Тем не менее, компании понимают, что он может дать очень ценные преимущества, и наращивают усилия в этом направлении. Согласно исследованию McKinsey Global Institute, такие технологические лидеры, как Google и Baidu в 2016 году инвестировали $20-30 млн в проекты, связанные с искусственным интеллектом , причем около 90% этой суммы приходится именно на НИОКР.

Есть примеры кейсов успешного применения искусственного интеллекта. Так, производитель мотоциклов Harley Davidson увеличил производство через три месяца после внедрения маркетинговой системы Albert, основанной на искусственном интеллекте. Другие компании также демонстрируют сильные результаты, особенно в сферах, где машинное обучение позволяет создавать эффективные бизнес-модели и стимулировать продажи.

Почти 80% компаний, согласно опросу Capgemini , благодаря искусственному интеллекту улучшили методы анализа. В частности, юристы JP Morgan смогли сократить время, которое тратится на изучение сделок и тысяч страниц документов, и при этом уменьшилось количество ошибок.

Цель исследований – найти перспективные варианты использования, а затем адаптировать искусственный интеллект к задачам компании. Внедрение искусственного интеллекта ради него самого не должно становиться нормой.

2. Последствия автоматизации труда

Одно из самых больших опасений связано с тем, что искусственный интеллект ведет к обесцениванию человеческого капитала. Автоматизация вытесняет дорогостоящий человеческий труд, поскольку машины могут выполнять те же функции с большей эффективностью и меньшими затратами.

На самом деле этот аргумент не выглядит убедительным. То же исследование Capgemini показало, что большинство компаний, внедривших искусственный интеллект, увеличило число вакансий и улучшило качество обслуживания. Видеть в ИИ инструмент развития компании – более продуктивно, чем опасаться увольнения сотрудников.

Во многих областях искусственный интеллект не заменит человека . Компании будут создавать комбинированные системы, использующие преимущества обеих вариантов. Например, KLM внедрила искусственный интеллект в качестве модели обслуживания первого уровня. Это сокращает время ожидания клиентов, чей запрос не требует проработки. Благодаря этому у операторов появляется время для решения более сложных задач. Так же поступили в China Merchants Bank .

Важно находить сектора, в которых ИИ помогает людям лучше выполнять свою работу и при этом эффективно оптимизирует операции.

3. Обучение команды

Об инновациях всегда известно слишком мало в момент их появления. Первые пользователи и даже сами создатели тратят массу ресурсов на их освоение, а доход получает тот, кто, отставая на несколько шагов, пользуется уже отлаженной технологией. Совместное исследование BCG и MIT показало, что лидеры большинства отраслей считают, что технологии ИИ будут иметь решающее значение в следующие пять лет. Компании уже начинают осознавать потенциал платформ на базе искусственного интеллекта, 83% опрошенных рассматривает их как стратегическую возможность для роста.

Для большинства высокотехнологичных компаний глубокая экспертиза в области искусственного интеллекта не является абсолютно необходимой. Однако критически важно понимать основные аспекты этой технологии, чтобы оценить ее потенциал. Важно видеть такие возможности ИИ, как самообучение программ на основе ранее полученных данных, облегчение рутинных операций, усиление конкурентных позиций бизнеса.

Одновременно руководители должны позаботиться о повышении информированности сотрудников о методах применения ИИ в своей отрасли. Важно помочь сотрудникам подготовиться к предстоящему распространению этой технологии, получив знания через онлайн-курсы и аналогичные корпоративные программы.

4. Создание новых рабочих мест для управления ИИ

Существует опасение, что инженерные и другие технические специальности сильнее всего пострадают от бума ИИ. Однако экспертные мнения и отраслевые исследования говорят о другом. Сначала технологическая революция действительно может привести к потере рабочих мест , однако затем потребуются сотрудники для обслуживания самой этой системы.

В то же время критически важно создавать новые рабочие места в различных подразделениях компании, а не только в департаментах, непосредственно обслуживающих технологии. Искусственный интеллект успешно справляется с примитивными и повторяющимися операциями, в том числе – с анализом и маркетингом. Однако для них все равно потребуется мониторинг и постоянная адаптация. Поэтому, чтобы успешно внедрять ИИ и плавно переходить на новые рабочие алгоритмы, необходимы согласованные действия разных подразделений.

5. Сохранение человеческого лица HR-службы

В применении новых технологий важен баланс и понимание границ допустимого. Есть мнение, что в такой сфере, как подбор персонала искусственный интеллект предпочтительнее, чем человеческое общение. Машина лучше справится с анализом сотен резюме и поиском подходящего кандидата.

Решая различные HR-задачи, важно оставаться эмоционально открытым. Люди чувствуют себя более комфортно, когда общаются с другим человеком. Искусственный интеллект будет ценным в таких областях, как начисление заработной платы, рекрутинг, оценка эффективности и планирование работы сотрудников. Но он никогда полностью не заменит HR-специалистов.

Перевод с английского.

Аналитика - это процесс познания. Интеллект - это исходный материал для аналитики.

Введение

Такуж сложилось, что понимание Искусственного Интеллекта (ИИ), его конечных функций и рисков у каждого своё. Однозначных трактовок нет и у экспертов. Понятие «искусственный» достаточно конкретное, т. е. подобный человеческому (натуральному). А вот «интеллект» трактуется, как «умственное начало» либо «умственная способность», что можно интерпретировать по-разному. Что и происходит. Принимая желаемое за действительное, кибернетики констатируют наличие ИИ. Это искажает координаты во времени и архитектуру ИИ как цели.

Задача данной статьи структурировать имеющиеся знания об ИИ и расставить всё по местам. Выявить причины отсутствия существенных достижений в этой области, обозначить путь решения данной проблемы и конкретизировать риски ИИ. Последовательное решение этих задач в данной работе помогут заинтересованным лицам разобраться в хитросплетениях изрядно запутанной темы.

Цель данной работы - обосновать, что понятие ИИ нужно рассматривать под новым углом, а именно: с включением в данное понятие не только инструмента для решения технологических задач, но и инструмента эквивалентного и превышающего аналитические возможности человека. То есть,системы способной анализировать явления социального характера для возможности прогнозирования будущего, что может стать возможным при трансформации социологии вточнуюнауку через её алгоритмизацию.

1.Актуальность ИИ

Принципиальнейший вопрос ИИ в следующем. Существующий тренд исследований в ИИ направлен исключительно на решение технологических задач. Человеческий же интеллект занимается в основном решением личных, общественных и социальных проблем и его «успехи» оставляют желать лучшего. Мы совершенствуемся технологически и прямо пропорционально множим социальные риски: кризисы, эпидемии, конфликты, войны, теракты и т. д. Логично предположить, что целью создания ИИ должен быть инструмент решающий исключительно социальные проблемы. Ведь, вопрос социального характера «Что будет,если...?» для человека гораздо важнее технологического вопроса «Сколько будет...?», но этого пока нет даже на стадии осознания. Сейчас кибернетики успешно справляются с созданием любых приложений и траекторий математического порядка. Но описать на языке программирования различные социальные процессы и явления и тем самым предвосхитить в будущем частное или государственное потрясение и т.д. (его амплитуду, частоту, фазу), на любом временном этапенемыслимо в принципе. То есть, то, что сейчас подразумевают под имеющимися «умными» изобретениями (девайсы, дома, роботы и так далее), на самом деле таковыми не являются, так как они не обладают способностью анализировать опыт прошлого и данность настоящего для стратегического прогнозирования будущего.

2.Проблематика ИИ

Проблеме ИИ уже более 70 лет. Успешно решены задачи-погодки: термоядерный синтез, код ДНК, космические программы, коллайдер и т. д. Эти вопросы решались на уровне правительств. Сейчас ИИ занимаются не только страны, но и все уважающие себя компании. Инвестиции в эту проблемудостигают астрономических размеров и перекрывают сумму затрат всех предыдущих научных открытий. И это не предел. Однако, далеко продвинуться не удалось, поскольку все доклады о достижениях в области ИИ - это блеф. По сути, речь в них идет о банальной комбинаторике, т.е. овсе более совершенных продуктах-калькуляторах, направленных на решение технологических задач сомнительной значимости. Сомнительной, из-за отсутствия технологии «стендовых испытаний» на предмет их безопасности в будущем.Поскольку отсутствуют тестирующиеалгоритмы причинно-следственных связей.Наблюдается парадокс корпоративной этики. Соискатели осваивают инвестиции, рапортуют об очередном «прорыве», но при этом все, кроме инвестора, знают, что онИскусственным Интеллектом не является. В чем причины пятого творческого тупика? Их много. Во-первых, нет конкретного определения ИИ. Во-вторых, нет однозначного понимания, что такое интеллект. В-третьих, нет главного - фундаментальной теории ИИ. В итоге, отсутствует чёткая архитектура цели. Есть только версии, не работающая парадигма ИИ, шаблонность эволюции проблемы,т. е. только в технологической плоскости и удручающая цикличность тупиков. В результате, разработчики не имеют понятия о конечных характеристиках и функциях инструмента. Соискатели ИИ с готовностью обещают реализовать нечто, не имеющее научного описания. И это нонсенс, но факт. Например.на одной из конференций доктор наук требовал уважения и утверждал, что его бульдозер на Чернобыльской АЭС обладал продвинутым ИИ. Как можно решитьзадачу создания ИИ, если цели, задачи и риски которой существуют в виде версий? Невольно напрашивается сравнение ИИ с «черной кошкой в тёмной комнате», которой, кстати, там нет.

Почему же сейчас понятие ИИ рассматривается только как «интеллектуальные» приложениядля техники? Всё началось с легендарного взломщика «Инигмы» А. Тьюринга. Он не только расколол код вермахта, заложил основы кибернетики, но что имеет более глубокие последствия, дал «ложный след»: «тест Тьюринга» и понимание ИИ. Многие годы вводные параметры ИИ были не преодолимы для соискателей и тогда понятие ИИ просто расширили. Заманчивые перспективы ИИ решили проблему инвестиций, а сложность темы для обывателя сделала из кибернетиков не только «гуру», но и фактических монополистов, так называемого ИИ. И что? И ничего. На конвейер поставлены якобы интеллектуальные приложения, все довольны, но ИИ нет.

Подытожим. Кибернетики успешно работают в системе «да-нет». Осмыслить, понять, принять то, что заключено между этими символами (смыслы, сущности, аллегории, абстракции и т.д.),они не могут по определению. Не та специализация. Глубина темы ИИ позволяет маневрировать соискателям фигурами речи, но не смысловым содержанием. Ведь речь идёт о создании инструмента эквивалентного и превышающего аналитические возможности человека. Другими словами, ИИ - это командная работа социологов, философов, психологов, историков и т. д. Только они могут наполнить ИИ смысловым содержанием, т. е. сделать из высокотехнологичного калькулятора искомый Искусственный Интеллект . Кибернетика - это лишь операционная база «одевающая» мысль в цифру.

Возникает вопрос порядочности в исследовательской среде. Да, достижения кибернетики высоки. Ими созданы боеголовки, компьютеры, приложения, умные дома, светофоры и т. д.. Но как будет описано ниже, к ИИ это не имеет никакого отношения. По сути, всё новое в разработках ИИ обречено функционировать по принципу калькулятора. Другими словами, справедливое название их темы: Искусственная Комбинаторика (ИК). Все остальное - от лукавого.

3.Концепция внедрения ИИ

«Невозможно решить проблему на том же уровне, на котором она возникла. Нужно стать выше этой проблемы, поднявшись на следующий уровень». А. Эйнштейн.

Для того, чтобы реализовать ИИ, необходимо переосмыслить существующие подходы к ИИ, осознать «ложный путь» и взглянуть на проблему по-новому.

Качество любых знаний определяется эффективностью аналитики собственного поля. Например, качество точных наук более 90% и на практике их возможности ограничены лишь бюджетом. Качество аналитики прогнозирования метеорологического поля - более 60%. Хромают системы счета и алгоритмическая база. Качество экспертной аналитики прогнозирования социального поля составляет всего 6 - 8% ввиду отсутствия алгоритмической базы. Нет социологии, как точной науки, нет систем счета, стабильности системы. Это делает невозможным вести качественную социальную аналитику. Заявления Санта-Фе о 16% эффективности - это миф, справедливый лишь для устойчивого форсайта.

Все существующие открытия и технологии своим появлением обязаны точным наукам. Проблема ИИ останется проблемой, поскольку основным телом она находится в поле версионных социальных знаний, качество которых всего 6-8%. Именно поэтому ей более 70 лет.

Решить проблемы ИИ при такой эффективности социологии невозможно. Необходимо поднять качество социологии посредством её алгоритмизации. В итоге мы получим Высокотехнологичную Социологию (ВС). Именно она сделает возможным функционирование Искусственной Аналитики (ИА) балансного типа. Это базовая структура.

Социология не в состоянии сформулировать основные понятия темы ИИ, поскольку не имеет алгоритмического сопровождения. Например, существующее понятие интеллекта - это лишь "мыслительное начало«.Это что? Нет алгоритма для этого термина, как и алгоритмов для других понятий;смыслы, сущности, чувства, творчество, парадокс, интуиции, воображении и т.д.?Как можно наполнить кибернетический инструментабстракцией? Ведь только алгоритм и формула определяет и подтверждает точность версии, конкретизирует её, как инструмент для ведения эффективной аналитики. Поэтому, естественно, что математическая архитектура конечной цели ИИ отсутствует.

Мозг - это аналитический инструмент, но чем он занимается? Существует масса промежуточных понятий, но нет основополагающего.Поясню. Мозг занимается АНАЛИТИКОЙ по оценке рисков будущего. Это его главное эволюционное предназначение, обеспечивающее выживание. Только эта доминанта позволила человеку выжить и доминировать. Остальное вторично. Следовательно, работать надо не с аморфным, размытым понятием «интеллект», а с прозрачным и понятным - АНАЛИТИКА. То есть Искусственная АНАЛИТИКА (ИА) по оценке рисков перспективы. Комбинаторика закончится и начнётся ИИ там, где будет получен ответ на вопрос: «Что случится, если...?». Пока системы отвечают на вопрос: «Сколько будет...?». Другими словами, пока эволюция ИИ выглядит так: машина Тьюринга - арифмометр Феликса - калькулятор - очень хороший калькулятор - еще лучше и т. д. Эта тупиковая парадигма исключает следующую ступень,то есть ИИ, тем более ИА. Всегда будет получаться калькулятор.

Следует правильно понимать суть «ложного следа» ИИ, проблема которого втехнологическом векторе. Мозг - это познавательный инструмент. Аналитика как процесс познания - его производное. Основной вектор познания - это оценка рисков. Для эффективной аналитики необходимы исходные данные. По сути, Интеллект таковыми и является, и он имеет объем. Объём интеллекта (ума) достаточно конкретная субстанция по содержанию, но форма размыта и допускает произвольность. Именно поэтому «умный» дом или бульдозер не являются интеллектуальными, поскольку в этих системах отсутствует функция предвосхищения рисков, а есть только программа управления. Чтобы правильно оценить угрозы будущего, необходимо знать это будущее во всех его проявлениях. Мы не знаем будущего. Это информация высшего порядка... Тем более его не знают системы называемые интеллектуальными. Утверждать обратное - это заниматься фигурами речи, что и происходит.

Чтобы было понятней, в порядке отвлечений, следует осмыслить неизвестный исторический прецедент. Всем известно, что главным богом на Олимпе был Зевс. Однако, нет! Зевс был исполнительным директором, и у него для этого было совершенное оружие. Главным на Олимпе был Рок. Только он знал будущее и писал всем судьбы (и Зевсу тоже). И поэтому именно он был главным, поскольку обладал абсолютным оружием. И только этого «серого кардинала» боялись боги. Это также говорит и о том, что ИИ, это высшее достояние. Это не только абсолютные знания, но и другие позиции Абсолюта. И всё очень, и очень не просто... Надо быть либо слишком заносчивыми, либо не понимать сути предмета поиска, чтобы решить возможным для себя быть богами с существующим уровнем понимания мира (3-5%). Это о кибернетиках - соискателях ИИ. ЗНАТЬ БУДУЩЕЕ - это архитектура цели. ИИ на это не способен в принципе. Эти функции возьмёт на себя Искусственная Аналитика. По сути, ИА и есть искомый ИИ. То есть ИА, это система распознавания собственных и социальных рисков.

Есть фундаментальная проблема: Кто будет обучать Искусственный Интеллект? Но нет, не математическим закономерностям, алгоритмам и траекториям, эти технологии уже отработаны. Ведь ИИ надо обучить, прежде всего, социальным знаниям.Справятся лиКибернетики? А что они знают, например, о токсичностисоциальных знаний? А таких параметров тысячи.Так Кто? Повторю, качество социальных знаний, как и их носителей, а соответственно и эффективность существующей аналитики всего 3-5%. Заносчивая эйфория здесь не поможет.

NB. Можно бесконечно долго формировать ложные векторы цели, называя их ИИ, но в итоге, всё придётся делать по «образу и подобию» мозга человека. Необходимосформировать инструмент ИА на базе ВС, а именно:алгоритмизировать массу социальных понятий, понимать величину их токсичности и прочих коэффициентов загрязнения, компоновать социальную иммунную систему, как и её аудит, выводить алгоритмы социальной энтропии, пределов, причинно-следственных связей, баланса, критических масс и пр. Решить проблему Общей Теории Поля и, соответственно, Общей теории Социального Поля. Все это даст возможность ИА открывать время, т. е. амплитуду, частоту, фазу будущих угроз (событий). То есть решить проблему стратегического прогнозирования и не только...

4.Риски

Представьте себе ядерный реактор без систем защиты и стабилизации. Технологические возможности систем ИИ более 90%, а существующие стабилизирующие блоки в лице социальной аналитики рисков практически на нуле... Поясню. Современная, даже выдающаяся личность (общность) понимает будущее до ближайшего телефонного звонка, т. е. 3-5 минут. Любое внезапное происшествие, сообщение о смерти родственника, авария или теракт вызывает временной и аналитический паралич... Мы понятия не имеем о личном ближайшем будущем (рисках), тем более о будущем ИИ. Ведь эффективность нашей аналитики угроз всего 3-5%... Нашу мнимую аналитическую уверенность в завтрашнем дне, успешно формирует условно стабильная система. Стоит окружающей системе начать разрушаться и аналитика перспективы опустится до нуля. Всё это не мешает кибернетикам внедрять непрогнозируемый по рискам инструмент ИИ...

Идущие сейчас процессы по внедрению ИИ приведут к возникновению серьёзных рисков, а именно:

1.Сложно комментировать аргументацию угроз ИИ,например, от С. Хокинга, об экспансии на другие планеты или И. Маска о запрете роботизированного интеллектуального оружия. Их логика не понятна. Ведьлюбой космический перелет априори должен иметь систему распознавания рисков (угроз), а в роботизированном оружии, даже очень продвинутом, есть программы траекторий, но нет ИИ. Голливудское железо не представляет опасности в искомом смысле. Но они правы, в общем - риск серьёзный. Поясню. В системе ИИ есть конкретно слабый узел. Базовый алгоритм - универсальная математическая комбинаторика. Независимо от воли конструктора, система ориентирована на человека и есть цель превзойти его в возможностях. Возникает дилемма. Самообучение ИИ не допустимо, поскольку это системный флаттер. Инструкторское сопровождение нелепо, поскольку все вводимые социальные знания (алгоритмы) имеют токсичную структуру,а их коэффициентов социального загрязнения нет в природе, поскольку нет высокотехнологичной социологии с базовыми алгоритмами. В итоге, ничего кроме хищной версии получиться не может. Например, есть законодательные акты, но нет теории их загрязнения двойными стандартами. Робота «Тау» добросовестно научили базовым социальным принципам, но не ввели коэффициенты и алгоритмы двойных стандартов и пр. Где их взять? Понадобилось не так много времени, что бы системы: «BabyQ», «XiaoBinq», «Zo», «Тау» определили приоритетность и предложили немыслимое с точки зрения социума... Далее судебные иски. Эти примитивные версии предлагали неприемлемое для обывателя, а более продвинутая версия будет внедрять без согласования с человеком.

2.Компетенции ИИ будут распространяться лишь на технологические знания. То есть, он будет эффективен комбинаторно, но абсолютным дилетантом в социальном плане.Другими словами, существующий факт технологической гипертрофированности в компоновке ИИ чреват непрогнозируемыми рисками, ввиду отсутствия теории Пределов. Кто обеспечит его компетентными социальными знаниями? Их не существует в природе. При этом,индексы конфликтности социума и алгоритмы социальной энтропии предполагают «конфликт интересов» в системе человек - ИИ. Другими словами, качество математическо-алгоритмического сопровождения ИИ более 96%, а качество социально-алгоритмического возле нуля. Такая конструкция предельна по экспоненте, не предсказуема по хищным версиям, дисбалансна по определению и деструктивна, по сути. И, конечно, наивно полагать, что технологически продвинутый ИИ, но не имеющий социального алгоритмического наполнения, будет иметь осмысленные морально-этические нормы. Тем более бессмысленна идея любых протоколов безопасности и других форм его сдерживания. Как итог - хищная версия, с человеческим ассортиментом провокаций. Лавина «казусов Белли», обрушение мировой КФС, глобальное социальное переформатирование, неуправляемая сингулярность, социальный флаттер, технологический дефолт и т. д. До «восстания роботов» дело даже не дойдёт и это надо понимать. Мы к этому не готовы.

3.Можно понять кибернетический дилетантизм, тем более понятен социальный. Это закономерно. Вопрос, что будет делать и какие принимать решения глобальная «элита» в условиях системного флаттера? Ведь это еёфорсайт... В «постиндустриальном мире» она будет инородным телом, её даже нет в сценарии. И что трагично для неё как структуры, она станет абсолютно прозрачной, а, следовательно, беззащитной. А кризисного менеджера необходимого уровня не существует по определению. В общей системе угроз «элита» - ёмкая величина.

4. Это изложение описывает лишь некоторые позиции адаптированные в социуме. Основной информационный массив, «закрытого типа», остался за рамками текста. Именно он является решающим в проблеме будущих угроз ИИ. Остановить этот процесс уже не получится. Это не генно-инженерная лаборатория, которую можно закрыть или контролировать. Создать универсальную хищную версию можно и дома. Инвестиции в таком объёме - это серьёзный стимул. Будем объективны, 86% «хищных» соискателей сингулярными темпами формируют такую же хищную версию ИИ. Ведь закон «Мура» никто не отменял. Надо понимать эффект сегмента. Грамотный хищный алгоритм аннексирует необходимые структурные компоненты в сети без согласования, по программе оптимизации... Систем блокировки нет.

5.Все известные глобальные риски зависят от доброй или злой воли, выгоды и закономерности. По ним можно договариваться. Даже с астероидом можно «договориться». Риски же ИИ зависят исключительно от закона «Мура» - ясной, объёмной, неотвратимой производной форсайта. Кибернетическая составляющая, практически необъятна и с ней не договоришься. Именно поэтому в перечне глобальных рисков ИИ - безоговорочный лидер.

6.Мы стали забывать острые углы гонки за обладание ядерным оружием в середине прошлого века. Предстоящая гонка заИИ начнётся с осмысления возможностей этого инструмента, так как они слишком фантастичны. Поскольку, то, что рисует современное воображение, не соответствует действительности.Бесконечно долго можно описывать угрозы ИИ, но если коротко, проблема впредстоящей полной трансформации существующего мировоззрения человека. Дилемма, от которой невозможно уйти или отсрочить, и сложно сказать какой вариант хуже. Мажоры, изощряясь в эпитетах, сравнивают ИИ по значимости с полетом первого спутника - величайшим благом и т. д. Уместнее сравнить его с величайшей катастрофой.

Заключение

Называя все автоматизированные технологические процессы и инновации Искусственным Интеллектом, к нему не приблизишься. То, что происходит сегодня - это лишь введение в ИИ, если точнее, формирование его хищной версии.Проблематика ИИ глобальна по содержанию и последствиям настолько, что изменит статус человека, а, следовательно, предполагает его трансформацию. Каждый её сегмент обязывает иметь фундаментальную теорию по аналогии термоядерного синтеза. Их более двадцати, но пока нет ни одной. Например, пресловутая «красная кнопка», база которой - теория «баланса» (активного равновесия). А ее нет даже на горизонте. И так сейчас выглядит всё поле ИИ. На выходе у человечества продукт, в разы превышающий по мощности, последствиям и рискам всё известное. А армия инвестируемых соискателей рвётся открыть «ящик Пандоры» не имея ни малейшего представления о его содержимом...

Контрольные вопросы для экспертов и инвесторов ИИ.

1.Причины терминологического многообразия Интеллекта и ИИ.

2.Причина отсутствия единой научной общей и фундаментальной теории ИИ?

3.Реперные точки и конечные координаты ИИ, как абсолютной инновации?

4.Обучающая структура ИИ?

5.Базовые сегменты ИИ и их структурные алгоритмы?

6.Алгоритмическая архитектура цели ИИ? Компетенции?

7.Тактико-технические данные не элемента системы, а конечного продукта ИИ?

8.Функции ИИ, как конечного продукта?

9.«Объём» конечного продукта ИИ (пределы его Поля, алгоритмы экспонент)?

10.Алгоритмы рисков ИИ?

11.Концепция «красной кнопки»?

Евгений Крячко. e-mail: [email protected]