НеВенец творения. Всё, что вы боитесь знать о будущем

Игорь Диденко, 2020

Научно-популярная книга экономиста и визионера Игоря Диденко «НеВенец Творения, или Все, что вы боитесь знать о будущем» приглашает читателя к серьезному и важному разговору. Автор предлагает поразмышлять о том, куда приведет нас дорога социально-технологической эволюции – процесса, в ходе которого происходит непрерывный рост совокупного интеллекта человечества. Совершая открытие за открытием, люди чувствуют себя все более всемогущими, гордо именуют себя «венцами творения» – и в один прекрасный момент осознают, что расти цивилизации больше некуда, а все достижения прогресса, призванные сделать жизнь прекрасной, неумолимо начинают работать против них как биологического вида… В книге простым и доступным языком, но в то же время научно аргументированно объясняются все те события, что происходят с человеческой цивилизацией в последние годы, а также рассказывается, что ждет ее в недалеком будущем и почему мы все уже никогда не будем жить так хорошо, как жили в начале XXI века.

Оглавление

* * *

Приведённый ознакомительный фрагмент книги НеВенец творения. Всё, что вы боитесь знать о будущем предоставлен нашим книжным партнёром — компанией ЛитРес.

Купить и скачать полную версию книги в форматах FB2, ePub, MOBI, TXT, HTML, RTF и других

Часть II. Настоящее

После внедрения определенной технологии мы не можем отказаться от нее.

Колин Харрисон, IBM

Таких примеров, как в первой части этой книги, можно привести множество. Человеческая цивилизация эволюционирует непрерывно, события социально-технологической эволюции соединены между собой множеством причинно-следственных связей и во многом предопределены климатическими, демографическими, экономическими, технологическими факторами. Некоторые из этих связей читатель заметил, познакомившись с предыдущими главами этой книги. Конечно, в истории всегда есть место случаю, и предопределенность в социально-технологической эволюции не означает жесткую безальтернативность конкретных событий в определенное время. Но цивилизация, как и отдельные нации и общества, в любом случае, развивается в некоем «коридоре возможностей». Кроме того, все народы получили изначально некую выданную «колоду карт» в виде особенностей своего географического положения и климата, в которой могли, как у Японии или Великобритании, выпасть «козырные карты», а у кого-то, как у государства майя или некоторых африканских стран, оказались на руках только «шестерки». Очень условно происходящий процесс можно сравнить с компьютерной игрой «Cid Meyer`s Civilization», где игрок строит собственную «цивилизацию», опираясь на заранее предопределенные факторы.

Уже не раз упоминалось, что одна из характерных черт социально-технологической эволюции — увеличение «плотности интеллекта». Да, в какой-то степени эволюция человечества — это непрерывный процесс концентрации «вычислительных мощностей» биологического происхождения. Сначала эта концентрация была совсем невелика, интеллект был «размазан» тонким слоем по планете, так как плотность населения была очень небольшой. Переход к оседлому образу жизни увеличил его концентрацию, появление городов увеличило еще сильнее. В монастырях, а затем в университетских центрах стал концентрироваться научный потенциал как квинтэссенция человеческого интеллекта. Процесс урбанизации, начавшийся в конце XIX — начале XX века, сделал концентрацию интеллекта в городах и урбанизированных зонах высокой как никогда ранее. Это резко стимулировало технологический прогресс.

Прогресс можно описать простой формулой: чем больше совокупная вычислительная мощность интеллекта, тем больше объем информации, которую он может обрабатывать. Рост вычислительных мощностей стимулирует рост объема передаваемой информации. Но, чем больший объем информации нужно обрабатывать, тем больше требуется интеллекта и вычислительных мощностей. Прогресс идет по восходящей спирали.

Вскоре урбанизация привела к появлению громадных мегаполисов с населением 10 и более млн человек, фактически сверхсложных вычислительных центров с десятками миллионов процессоров. И, наконец, появились компьютеры, интернет, а затем и поисковики и соцсети как места, где интеллект, биологические «вычислительные мощности» всех людей вместе взятых могут быть сконцентрированы одномоментно, практически в одной точке. Возможно, остался лишь один, последний шаг — воссоединение этого «концентрированного биологического интеллекта» в мегамозг, единый искусственный интеллект, который будет квинтэссенцией совокупного интеллекта всех людей на планете. И, похоже, это произойдет быстрее, чем мы можем ожидать.

Ученые называют момент, когда человечество сделает этот шаг, «технологической сингулярностью». Некоторые ученые даже прогнозируют наступление ее в ближайшие 30 лет (в 2045 году по версии известного американского футуролога-визионера Рэя Курцвейла). Предполагается, что технологическая сингулярность будет характеризоваться феноменально быстрым, возможно экспоненциальным научно-техническим прогрессом, и это станет возможным благодаря искусственному сверхинтеллекту. Курцвейл не скрывает своей уверенности, что это будет слияние человечества в биологическом смысле и искусственного интеллекта. Однако описывает он это событие в очень общих чертах: с его точки зрения, это будет «период в будущем, когда темпы технологического прогресса окажутся настолько высокими, когда влияние технологий станет настолько глубоким, что человеческая жизнь безвозвратно перевернется».

То, что она перевернется, сомнений нет. Вопрос — как? И что нас ждет, собственно, на пути к этой технологической сингулярности? Большинство футурологов и визионеров стараются быть оптимистичными: ведь позитивный взгляд на будущее продается слушателям и в особенности корпорациям намного лучше, чем негативный. Многие ученые стараются обходить сложные вопросы стороной, выдавая банальные рекомендации. Мол, все будет хорошо, люди будут получать деньги в виде безусловного дохода, то есть просто так, будут всю жизнь учиться и переучиваться, чтобы соответствовать той скорости технологического прогресса, который все ускоряется и ускоряется перед наступлением «технологической сингулярности». Часто слышатся голоса, утверждающие, что в конце концов люди будут заниматься исключительно творчеством, потому что искусственный интеллект никогда не научится творить.

Тут иногда приводится «блестящий» аргумент, гласящий, что у алгоритмов «нет души», поэтому их творческая деятельность никогда не достигнет человеческого уровня. И, кстати, первая часть этого высказывания — чистая правда. У алгоритма действительно нет души, это не более чем программа, компьютер, вычислительная машина, созданная для обработки огромных потоков информации. Правда, искусственный интеллект — тот самый алгоритм — по признанию как специалистов, так и простых людей давно уже пишет отличную музыку, рисует прекрасные картины, сочиняет прозу и даже стихи на уровне человека. И люди с удовольствием эту музыку слушают, картинами восхищаются, а прозой зачитываются. Но это не главное. Главное в том, что современные ученые уже давно выяснили: на самом деле, души нет не только у компьютера, ее нет и у человека. По крайней мере, в науке такое понятие отсутствует.

Но даже если бы у «человека разумного» была душа, всю жизнь учиться и переучиваться, пытаясь конкурировать сразу со всеми людьми на планете (и с теми же алгоритмами — специалисты по искусственному интеллекту называют их нейросетями) в гонке за выживание — удовольствие, на самом деле, не из приятных. И дело в общем-то даже не в удовольствии. Дело в том, что перманентный образовательный процесс для людей старше 40 лет, как правило, физически невозможен. Биологические организмы изнашиваются, и ваше тело, как и головной мозг, после 40 лет уже не те, даже если вы сами очень хотите, несмотря ни на что, «учиться, учиться и учиться». Однако, если вы и сможете по достижении сорокалетнего рубежа вдруг переквалифицироваться сначала из инженера в программиста, потом в специалиста по большим данным, а потом, скажем, в специалиста по кибербезопасности, вы все равно в итоге будете неконкурентоспособны по сравнению с молодыми специалистами, например, из индийского Бангалора или, тем более, нейросетями — не говоря уже о том, что вы просто будете экономически невыгодны работодателю. Ведь ваш труд — труд опытного профессионала, жителя благополучного мегаполиса — будет стоить намного дороже работы искусственного интеллекта.

И, кстати, это лишь один из множества неожиданных сюрпризов, которые могут ожидать человека на пути к технологической сингулярности. Во второй части этой книги читатель сможет приоткрыть «завесу неизвестности» и понять, какие перспективы поджидают его лично на этом пути уже в ближайшее время, и увидит он это на примерах конкретных изменений, которые еженедельно, ежедневно и ежечасно происходят с человеком, экономикой и современным обществом в целом.

Описание этих изменений, которое читатель увидит в следующих главах, будет максимально объективным — без сгущения красок, но и без ложного оптимизма. Таких «оптимистичных оракулов» и без того хватает.

Глава 1. Новые риски

В апреле 2019 г. в Сингапуре вышел номер журнала «Esquire», все статьи которого впервые были написаны искусственным интеллектом. Робот (так называемый ИИ-бот) полностью самостоятельно написал пять больших текстов, включая «письмо редактора», и потратил на каждый материал всего по несколько минут. При этом нейросеть не испытывала никаких мук творчества, не отвлекалась на переписку в соцсетях, прослушивание музыки или просмотр семейного видео, присланного женой. Остальные ее материалы пришлось редактировать, но все равно это был самый дешевый по себестоимости номер «Esquire» в истории. Никаких гонораров авторам платить не пришлось, командировочных и накладных расходов нести тоже. Уникальный номер журнала покупатели расхватали как горячие пирожки.

Почти одновременно с «Esquire» американская газета «The Guardian» начала публиковать статьи, полностью написанные искусственным интеллектом, который умеет брать большие данные, обрабатывать их и вставлять в приготовленные заранее текстовые шаблоны.

Интеллектуальная программа, использованная в «Guardian», получила название «ReporterMate», что в вольном переводе звучит как «Друг Репортера», но можно перевести и как «Мат (конец игры) репортеру». После запуска проекта создатель робота-журналиста Ник Эверсхед заявил, что его программа никогда не заменит журналистов, просто сделает их работу удобнее и комфортнее, так как может работать с Big Data. Как тут не вспомнить слова инвестбанкира Пола Джонса, который, проведя очередное сокращение в своей компании, сказал сотрудникам: «No man is better than a machine, and no machine is better than a man with a machine» («Ни один человек не может быть лучше, чем машина, и ни одна машина не может быть лучше, чем человек с машиной»).

Как, наверное, и любое знаковое событие, появление полностью автоматизированных «алгоритмов-журналистов» было воспринято профессиональным сообществом двояко. Оптимисты рукоплескали, предвкушая скорый приход благословенных времен, когда людям вообще не придется работать, а можно будет лишь созерцать и заниматься творчеством. Пессимисты же нахмурили брови: до недавних пор написание качественной прозы вообще-то тоже относилось к творческой деятельности, и считалось, что алгоритмы никогда не смогут полностью заменить людей в этом процессе.

Учитывая, что в 2019 году Всемирный банк обнародовал новые данные о рекордном росте неравенства в Европейском Союзе (на 70 % за последние 15 лет), пессимистов было, пожалуй, немного больше. Они отмечали, что «труд» алгоритмов приносит доход только их создателям и владельцам, рядовые же сотрудники от этого только теряют. И действительно, новые технологии не в последнюю очередь «виноваты» в том, что беднейшие 10 % европейцев стали на 7 % беднее, а богатейшие 10 % — на 66 % богаче. Но, казалось бы, какая связь между уменьшением количества рабочих мест благодаря новым технологиям и галопирующим ростом социального неравенства даже в богатейших странах мира?

В течение довольно короткого времени после описанных событий множество политиков и общественных деятелей высказали свое мнение о роли искусственного интеллекта в будущем и о том, что может случиться, если он выйдет из-под контроля человека. Не обошел стороной проблему и Папа Римский Франциск, выступивший в Ватикане на конференции «Общее благо в цифровой век» в сентябре 2019 года. «Разработки в области технологий, в частности те, которые связаны с искусственным интеллектом, вызывают все более существенные изменения во всех областях человеческой деятельности», — заявил он. — Если бы так называемый технический прогресс человечества стал врагом общего блага, это привело бы к тому, что человечество регрессировало к варварству, где главным законом был бы закон сильнейшего».

Впрочем, Папа Римский был далеко не первым в ряду выдающихся деятелей религии, политики, науки и культуры, который высказал опасения по поводу неконтролируемого распространения технологий, технологического прогресса и будущего, в которое этот технологический прогресс может завести людей.

Еще в 1996 году Джон Мазер, известный писатель, нобелевский лауреат, главный астрофизик лаборатории наблюдательной космологии в Центре космических полетов им. Годдарда (НАСА), предупреждал:

«Мыслящие машины эволюционируют точно так же, как описанные Дарвином живые (и мыслящие) биологические виды — посредством конкуренции, сотрудничества, борьбы за выживание и воспроизводства. Машины становятся интереснее по мере того, как они учатся понимать физические объекты и управлять ими либо непосредственно, либо при участии людей.

Мы пока не обнаружили такого закона природы, который препятствовал бы появлению настоящего универсального искусственного интеллекта, так что я думаю, что это произойдет, и довольно скоро, учитывая триллионы долларов, что люди инвестируют в электронные аппаратные средства, а также те триллионы, которые заработают потенциальные победители…

Я пришел к выводу, что мы уже поддерживаем эволюцию мощного искусственного интеллекта, а он, в свою очередь, повлияет на развитие привычных нам могущественных сил: бизнеса, индустрии развлечений, медицины, государственной безопасности, производства оружия, власти на всех уровнях, преступности, транспорта, горнодобывающей промышленности, производства, торговли, секса — да чего угодно!

Я думаю, результаты нам не понравятся. А они могут появиться очень быстро, настолько быстро, что великие империи падут и на их месте вырастут новые, а у людей будет самый минимум времени, чтобы приспособиться к жизни в новой действительности. Я не знаю, окажется ли кто-нибудь достаточно умным и одаренным для того, чтобы сохранить власть над этим джинном, потому что контролировать, возможно, придется не только машины, но и людей, дорвавшихся до новых технологий и имеющих злые намерения».

Да, если исходить из того, что к социально-технологической эволюции можно отнести и экономическое развитие, и технологический прогресс, Джон Мазер попал в точку. Мыслящие машины (они же искусственный интеллект) эволюционируют по точно таким же законам, как и люди. Более того, все говорит о том, что они являются аналогом, продолжением «человека разумного» — но, конечно, ровно настолько, насколько может являться аналогом «биологического процессора» мегапроцессор технологический, который вот-вот должен появиться, воплотив в жизнь мечты визионеров о технологической сингулярности. А пока на пути к ней новые технологии появляются одна за одной. Среди них есть и ключевые (такие как Big Data, мобильный интернет, нейросети), есть и проходные. Тем не менее, каждая новая технология делает жизнь людей (прежде всего власть имущих) более комфортной, удобной, безопасной и увеличивает объемы обмена данными, потоки которых растут экспоненциально. Это, в свою очередь, требует все более быстрого увеличения вычислительных мощностей: «биологических процессоров» для вычислительного процесса уже давно не хватает.

Но социально-технологическая эволюция — это не только экономический рост, удобство и комфорт. Это все больше и больше новых вызовов. Ведь пока все человечество строем идет вперед в светлое будущее, индивидуум, особенно, если он не принадлежит к элите, должен постоянно приспосабливаться. И одно дело адаптироваться к изменениям в течение нескольких поколений, и совсем другое, когда в течение жизни одного поколения изменения следуют одно за другим чуть ли не каждый месяц.

«Это вызывает дискомфорт только у старшего поколения. Представители молодежи чувствуют себя в такой среде как рыба в воде», — скажет читатель. Однако порой с серьезными проблемами, обусловленными всеобщей «технологизацией», сталкиваются и молодые люди.

…Казалось бы, мобильный интернет появился не так давно. Множество приложений в AppStore, огромное количество возможностей, выбирай на вкус. А как удобно расплачиваться телефоном, привязав банковскую карту и счет к своему номеру! Однако молодой российский журналист Никита так уже не считает.

Однажды Никита забыл свой мобильный телефон в ночном клубе. Вспомнил, вернулся, телефон ему отдали. Но то, что в мобильнике почему-то не оказалось сим-карты, он на радостях заметил только на следующий день. Казалось бы, что такое сим-карта? Пустяк, всего несколько минут потраченного времени в любом салоне сотового оператора — и новая карта уже в телефоне, не хуже прежней. Однако, когда Никита обратился в салон, там неожиданно выяснилось, что, пока он высыпался после бурной ночи, его сим-картой уже кто-то успел воспользоваться.

Никита устремился в свой банк — крупный, надежный, с западным капиталом. В банке его ждало горькое разочарование: неизвестные сняли со счета несколько миллионов рублей, отложенных молодой семьей на первый взнос по ипотеке. Излишне добавлять, что мошенников никто найти не смог, а деньги банк не вернул. Ведь формально клиент банка снял деньги со своего счета сам, идентифицировав себя своим собственным номером мобильного телефона, который реально ему принадлежал. Ужасно глупая случайность, приведшая к столь печальным последствиям. А ведь таких случаев — тысячи и даже, может быть, десятки тысяч, если не больше.

Впрочем, в этой истории есть хотя бы доля вины «потерпевшего»: все-таки человек, очевидно, проявил невнимательность. Но ведь непредсказуемые «цифровые» риски могут возникать даже, казалось бы, в самой безобидной ситуации. Например, ваш телефон или планшет разрядился, а вам срочно нужна зарядка. Наверное, скажет читатель, нет ничего страшного в том, чтобы воспользоваться общественной зарядкой (например, в ресторане или аэропорту) или попросить зарядный провод у незнакомца, сидящего рядом и использующего аналогичный вашему мобильный телефон. Однако специалисты по кибербезопасности категорически рекомендуют этого не делать.

«Есть такие вещи, которые просто нельзя одалживать, — уверен Чарльз Хендерсон, управляющий партнер и руководитель проекта X-Force Red в «IBM Security». — Если бы вы путешествовали и спохватились, что забыли взять с собой нижнее белье, вы бы наверняка не стали просить спутников одолжить вам его. Вы бы пошли в магазин и купили новое».

И такое мнение имеет под собой достаточное обоснование. В 2019 году специалисты по кибербезопасности выяснили, что через зарядные устройства и иные провода, которые вы подключаете к вашему смартфону или планшету, злоумышленникам несложно похитить данные ваших кредитных карт, контакты, любые другие файлы и информацию, которые хранятся в телефоне. Мнению Чарльза Хендерсона можно доверять: он сам руководит командой хакеров, которые разработали технологии, позволяющие через провода зарядных устройств внедрять вирусы, удаленно атакующие смартфоны и компьютеры, и выполняющие любые вредоносные команды своего «хозяина».

Вы все еще не верите? А зря. В августе 2019 года в «летнем лагере» для хакеров и киберспециалистов — «DEF CON Hacking Conference» — один из хакеров, известный под ником MG, продемонстрировал подобную технологию. Он смог подключиться к компьютеру удаленно через «доработанный» зарядный провод IPhone и получил полный контроль над ноутбуком Apple. Более того, MG заявил, что не составляет сложности создать программу, которая «убьет» внедренный вирус, не оставив ни единого следа его существования, после того, как задачи, поставленные перед вирусной программой, будут выполнены.

Особенную опасность, считает Хендерсон, несут станции для подзарядки телефонов с USB-портами, расположенные в общественных местах — аэропортах, вокзалах, станциях метрополитена. Они несут в себе самую серьезную угрозу — такие станции очень просто взломать, через них можно похитить пароли, получить несанкционированный доступ к почте. «Мы знаем о паре случаев, когда станции для подзарядки взламывали. Я говорю не об электрических розетках. Я говорю о станциях для подзарядки с USB-портами… Осторожность в отношении всего, что вы подключаете к своим устройствам, — это просто хорошая IT-гигиена. Считайте, что это то же самое, как открывать вложения к письмам или передавать пароли. В случае с компьютерами передать провод — это как передать пароль, потому что именно такой уровень доступа вы предоставляете».

Специалисты по кибербезопасности отмечают, что вместе с новыми технологиями в нашей жизни появляется все больше новых рисков, причем связано это не только с финансовыми или банковскими технологиями. В зоне риска оказывается наш повседневный быт в целом. И, если новыми гаджетами или новыми приложениями в телефоне люди пользуются с удовольствием, они никогда не должны забывать, что освоение технических новинок должно идти рука об руку с киберграмотностью и соблюдением принципов кибербезопасности. Иначе увлечение новинками технологического прогресса может выйти человеку боком.

Особенную заботу профессионалов кибербезопасности вызывают вопросы приватности в интернете и современном обществе в целом, а также сохранение в неприкосновенности собственных персональных данных. Так, например, Антон Фишман из известной компании по кибербезопасности «Group-IB» рекомендует в обязательном порядке соблюдать базовые принципы киберграмотности, и отмечает, что только такими жесткими мерами можно попытаться сохранить приватность в новом цифровом мире и обезопасить себя от кибермошенников. Советы сами по себе довольно простые, но вместе с тем очень полезные и актуальные.

Итак, в чем заключаются эти рекомендации?

— заклеивать камеру на мобильном телефоне и ноутбуке;

— отключать на мобильном телефоне любые сервисы геолокации и передачи данных;

— устанавливать на телефон только нужные приложения, ограничивая их доступ к контактам и прочей информации на телефоне;

— подключаться к Интернету только с помощью VPN;

— жестко контролировать все свои высказывания в сети, не позволять себе ничего лишнего.

Фишман отмечает, что в современном мире «паранойи много не бывает, все, что вы делаете в интернете, может быть использовано против вас».

Впрочем, с приходом новых «умных» технологий вся наша повседневная жизнь, похоже, становится «публичной жизнью в сети». Многие читатели, наверное, замечали, что, если поговорить с супругой или друзьями о чем-то, находясь рядом со своим телефонным аппаратом, в интернете потом выскакивают рекламные баннеры на тему того, о чем, собственно, шел разговор.

Это стало причиной широкого распространения конспирологических версий о том, что высокотехнологичные гиганты — Facebook, Apple, Amazon — анализируют все голосовые коммуникации своих клиентов. Как сообщало агентство Bloomberg, Марку Цукербергу, главе Facebook, даже пришлось оправдываться за это перед сенатом Соединенных Штатов Америки. В апреле 2018 года он заявил сенатору Гэри Питерсу следующее: «Вы говорите об этой теории заговора, что мы якобы слушаем то, что происходит на вашем микрофоне, и используем это для рекламы. Мы этого не делаем».

В последующих своих ответах Конгрессу США Facebook уже менее категорично утверждал, что «получает доступ к микрофону пользователей только в том случае, если пользователь дал разрешение нашему приложению или если пользователи активно используют особую функцию, требующую звука (например, функции записи “голосовых сообщений”)».

В итоге Facebook все же подтвердил, что он записывает аудио коммуникации своих пользователей, и объявил, что больше не будет так делать. «Так же, как Apple и Google, мы приостановили анализ звука», — заверили представители компании. Также в Facebook предположили, что пострадавшие от записей их разговоров пользователи сами выбирали опцию в приложении Messenger Facebook, разрешая тем самым компании записывать свои голосовые коммуникации.

Кстати, как пишет «Forbes», Facebook уже запатентовал технологию автоматического распознавания членов одной семьи и родственников по лицам на фото (в Instagram и самом Facebook) и по хештегам типа #kids, #wifey, #mom и так далее. Самое важное в технологии — фиксация IP-адреса пользователей и устройств, которыми пользуются члены семьи, так как это дает возможность отслеживать их геолокацию.

Идея состоит в том, чтобы использовать полученную о пользователях и членах их семей информацию для рассылки персональных рекламных объявлений. Однако журналисты предупреждают, что благодаря новой технологии компании-производители товаров смогут наблюдать, «как их продукты влияют на жизнь семей». Сам Facebook анализирует эту жизнь уже давно, и некоторые специалисты считают, что социальная сеть сохраняет все статусы пользователей, даже те, которые были написаны, но не опубликованы.

Много вопросов вызвал и прошедший в Facebook челлендж #2009vs2019, который заставил пользователей задуматься о том, кто инициатор такого рода акций в соцсетях и ради чего они проводятся. А любознательные журналисты даже нашли доказательства того, что инициатива выкладывать свои фотографии десятилетней давности рядом с фотографиями «сегодняшнего дня» принадлежит самой компании.

Подробное расследование на эту тему опубликовало издание «Wired». Журналисты предположили, что «челлендж» может проводиться для обучения искусственного интеллекта распознаванию лиц. Казалось бы, технология уже не нова, пользователи выкладывают миллиарды своих фотографий в соцсети, и массивов с фотоизображениями для обучения нейросетей более чем достаточно. Но в данном случае, оказывается, есть своя специфика.

Все дело в том, что простое распознавание лиц искусственным интеллектом — это сейчас уже пройденный этап. На повестке дня стоит уже другая задача: нейросети обучаются предсказывать, как будет выглядеть конкретный человек через 5, 10, 20 лет. Для этого нужен огромный массив маркированных фотографий, желательно с высокой степенью точности привязанный к конкретным датам, в идеале — сделанных через некий фиксированный промежуток времени. И если в 2018 году Facebook проводил флешмоб #2012vs2018, через год он предложил пользователям выкладывать рядом фото уже с десятилетней разницей в возрасте. Вот он, огромный массив бесплатных данных, даже промаркированный нужным хештегом. Осталось только загружать данные в обучающую программу и пользоваться.

Казалось бы, кому и зачем это может быть нужно?

Во-первых, сейчас все делается ради персонализации и таргетирования (поиска и выделения целевой аудитории, которая с наибольшей вероятностью отзовется на рекламу или иной посыл). В данном случае речь идет о таргетировании по возрасту. Людям разного возраста нужны разные товары, а нейросети пока не умеют с достаточной точностью различать возраст людей. Первый, кто сумеет натренировать алгоритмы с очень высокой степенью точности определения возраста человека по фотографии, произведет революцию в таргетированной рекламе.

Во-вторых, если искусственный интеллект научится фиксировать возрастные изменения человека по фотоизображениям, страховые и медицинские компании смогут определять состояние здоровья пациента в динамике. Если человек слишком быстро стареет (меняясь на фото не в лучшую сторону), страховка для него может стоить дороже. Если же изменения совсем фатальны, это может говорить о какой-либо пагубной привычке или смертельной болезни, что станет для страховой компании важным сигналом. В таком случае страховщик может вообще отказать в страховке.

Все эти и другие подобные истории, конечно, не красят Марка и его корпорацию. Впрочем, в заверения Цукерберга Конгрессу можно было бы поверить, ведь ложь под присягой — тягчайшее преступление в Соединенных Штатах, и руководитель Facebook вряд ли добровольно пошел бы на это. Однако даже сами сотрудники высокотехнологичных компаний не всегда верят своим работодателям.

Так, например, в Google уверены, что корпорация следит за своим персоналом, чтобы «узнавать о попытках сотрудников выступить организованно». Об этом сообщало информационное агентство «Bloomberg» со ссылкой на источники среди работников компании. Эти источники рассказали агентству «Bloomberg» о «шпионском» расширении браузера Google Chrome, который в 2019 году установили на все компьютеры в офисе корпорации. Как выяснилось, программа в том числе автоматически сообщала о любых мероприятиях в онлайн-календарях персонала компании, в которых планировало принять участие больше ста человек. Но зачем это было нужно?

Комментарий руководства Google был предельно лаконичен: мол, браузер ни в коем случае не собирает личные данные, а всего лишь борется со спамом, ведь в онлайн-календарях события часто создаются по ошибке, что засоряет рабочий информационный фон сотрудников компании.

Однако возмущенные гугловцы почти не сомневаются, что законспирированное расширение в браузере Google Chrome используется совсем не для этого — ведь программу даже нельзя удалить со своего компьютера. Кроме того, источники «Bloomberg» указывали, что созданием якобы «шпионской» программы занимались сторонние разработчики под строгим контролем внутренних специалистов, ответственных за безопасность и политику конфиденциальности в компании. Это очень несвойственно для ранее демократичной «культуры Google», которая, как считают сотрудники, теперь становится все более закрытой и ограничивающей любые дискуссии.

К высокотехнологичной корпорации в последнее время немало претензий. Так, «Financial Times» писал о том, что Google незаконно собирает личные данные, а потом тайно передает их рекламодателям. Запросы, по мнению журналистов, могут проходить через вкладки личного кабинета пользователя посредством браузера.

Газета рассказала историю старшего директора по политике и отраслевым отношениям компании Brave Джонни Райана, который якобы смог отследить, как Google продавала его личные данные на своей специализированной рекламной бирже.

Компания отметила Райана специальным идентифицирующим трекером, который содержал информацию о его местоположении, активности в браузере и так далее. Это позволяло рекламным компаниям идентифицировать пользователей и в дальнейшем таргетировать рекламу. По его утверждениям, за час Джонни Райан просмотрел 6 различных страниц, при этом его уникальный идентификатор был отправлен минимум 8 рекламным компаниям.

Принадлежащий Amazon производитель «умных звонков» Ring (через мобильное приложение домовладелец может в онлайн-режиме получать мобильное видео с изображением посетителя, когда владелец «умного звонка» находится вне дома) тоже оказался замешан в подобном скандале.

Как выяснили журналисты, Ring позволял следить за своими клиентами не только алгоритмам, но также инженерам и разработчикам, которые могли наблюдать через видеокамеру устройства все, что происходило около дверей дома клиента, в том числе и то, с кем возвращался домой сам владелец «умного звонка». Более того, в процессе расследования выяснилось, что видеопоток с камер клиентов изначально не шифровался и доступ к нему могли получить сторонние лица.

Данный факт стал свидетельством абсолютной беззащитности пользователей перед лицом несанкционированного внешнего вмешательства в частную жизнь через «умные» устройства. Получается, что граждане сами приобретают себе таких «внешних наблюдателей», якобы в интересах собственной безопасности, на деле же просто отказываясь от тайны частной жизни. А ведь «умные» устройства уже давно не экзотика, а реальность, причем во многих странах мира.

Так, по данным аналитической компании IDC, объем рынка «умных» вещей только в России в 2018 году составил почти 4 млрд долларов. Эксперты прогнозируют увеличение этого показателя вдвое до 2021 года включительно, при этом отмечают, что большинство «умных» устройств уже управляются голосом, что еще 3 года назад было почти невероятно.

Безусловно, у потребителей «умных» товаров появляются все новые потребности, которые рынок старается оперативно удовлетворять. Борясь за лидирующие позиции на перспективном рынке «умных» устройств, производители постоянно совершенствуют свой товар и заботятся о безопасности (например, следят за тем, чтобы человек не ставил приборы близко к электрической плите или раковине).

Конечно, такие замечательные «умные вещи» значительно облегчают нашу жизнь, делают ее удобнее и комфортнее: первый принцип социально-технологической эволюции действует всегда. Тем не менее, проблема информационной безопасности «интеллектуальных устройств» стоит очень остро. Как правило, вся «умная» техника управляется через мобильные приложения, которые довольно легко взломать. И это дает огромный простор для преступной деятельности — можно следить за пользователями или просто дистанционно выводить из строя приборы. Эксперты предупреждают, что, так же как и с финансовым мошенничеством, риски для пользователей становятся все более значительными.

Специалисты приходят к выводу, что полностью контролировать эти риски невозможно: как и в случае с банковскими картами и мобильными финансовыми приложениями, уже появилась целая индустрия мошенников, которые ставят своей целью взлом и управление «умными» устройствами в своих интересах.

Лаура Дорнхайм, представитель компании AdBlock Plus (блокировщик рекламы), в своем интервью журналу «Snob» предостерегает: «Например, если на сайте вы видите кнопку Facebook, значит, соцсеть «знает», что вы посещали этот сайт. Даже если вы не нажимали на саму кнопку. Жутковато, правда? Вообще, я бы не советовала использовать авторизацию через аккаунты Facebook или Google на сторонних сайтах. Лучше потратить пару минут и создать отдельный аккаунт. И пароль не придумывать самостоятельно, а воспользоваться генератором паролей.

И, конечно, если вы ищете какую-то деликатную информацию, например информацию о серьезных заболеваниях, следует, по крайней мере, использовать приватный поиск в браузере, а еще лучше — воспользоваться браузером Tor, через него крайне сложно отследить человека.

Расплачиваясь в интернете своей картой, всегда имейте ввиду, что эту транзакцию могут отследить. Внимательно читайте пользовательские соглашения, устанавливая приложения на свой мобильный телефон. Есть много бесплатных приложений, например игр, которые предупреждают, что приложение может использовать ваш микрофон, хотя для игры он не нужен. Периодически такие «программы-шпионы» записывают фрагменты происходящего и потом на основе этого предлагают контекстную рекламу. А вся информация о вас хранится где-то на сервере, и неизвестно, кто еще и с какой целью может ее использовать.

Я бы никогда не стала пользоваться Siri или любым другим голосовым помощником. В моем доме нет ни одного «умного» девайса. Да, это может быть удобно, но вы становитесь уязвимым».

Не одна Лаура Дорнхайм указывает на риски установки на мобильный телефон бесплатных приложений. Журналисты издания «The Bell» выяснили, что из ТОП-100 российских программ для мобильного телефона 89 делятся пользовательскими данными клиентов со сторонними организациями, а 97 из ТОП-100 приложений используют рекламные программы (так называемые трекеры), которые помогают Google, Facebook и другим сервисам распознавать аккаунт пользователя в любых приложениях и показывать ему соответствующую рекламу. То есть из ста самых популярных бесплатных приложений в российском Play Store вообще не используют трекеры только три, что может означать почти полное отсутствие безопасности данных пользователя.

А издание «TechCrunch» провело расследование, в ходе которого оказалось, что многие популярные приложения во всем мире записывают все происходящее на экране IPhone, естественно, не уведомляя об этом пользователей. Делается это «исключительно с целью сбора аналитических данных».

Журналисты выяснили, что большинство данных при сборе такой информации передается по незащищенным каналам, и, при желании, злоумышленники могут получить доступ в том числе и к личным данным пользователей.

Издание рассказало, что все это стало возможным благодаря аналитической технологии GlassBox, которая дает возможность лицам, получающим доступ к соответствующей базе, просматривать даже данные о кредитной карте и пароле пользователя, иметь доступ к его конфиденциальной банковской информации и ключам. Один из слоганов GlassBox просто завораживает своей откровенностью: «Представьте, что вы можете смотреть в режиме реального времени, что делают ваши клиенты».

В России, как писали СМИ, в подобную ситуацию в прошлом году попали клиенты Burger King, один из которых выяснил и опубликовал информацию, что при запуске соответствующего приложения начинается запись видео с экрана смартфона. Впоследствии это видео якобы отправлялось на сервера компании. По сообщениям СМИ, после публикации информации Роскомнадзор даже начал проверку деятельности компании Burger King в России.

В основном пользователи приложений и технических новинок не обращают внимания на такие «легкие недоразумения», как нарушения приватности или утечку персональных данных, считая это естественной платой за тот комфорт и удобство, что дают людям технологичные гаджеты. Всероссийский Центр Изучения Общественного Мнения (ВЦИОМ) в 2019 году даже провел опрос на эту тему и опубликовал его результаты. Согласно данным ВЦИОМ, 52 % россиян не видят никакой угрозы в использовании своих персональных данных третьими лицами.

Тем не менее, все чаще люди задумываются о своей уязвимости из-за чрезмерного увлечения различными высокотехнологичными девайсами. Так, например, многие владельцы фитнес-трекеров Fitbit, компанию-производителя которых купил Google, предпочли отказаться от использования устройств, опасаясь передачи данных о своем здоровье и образе жизни рекламным и страховым компаниям, сообщил в ноябре 2019 года канал CNBC. Как рассказали журналисты, причиной отказа от ношения фитнес-трекеров их владельцы называли именно то, что они беспокоятся о своей приватности. При этом качество устройства и характеристики трекеров Fitbit пользователей вполне устраивали.

Многие IT-специалисты знают, предупреждают и даже показывают своим примером, что взломать «умный» гаджет, иногда таким образом получив доступ к персональным данным всех пользователей девайса, в общем-то несложно. Так, осенью 2019 года по соцсетям разошлась история, рассказанная девушкой-хакером Анной, которая, сама того не ожидая, получила доступ ко всем автоматическим кормушкам для животных от китайской фирмы FURRYTAIL (орфография автора поста сохранена).

«…Вот эти автоматические кормушки продаются по пять тыщ рублей минимум. Добротный девайс, надо сказать. Работает хорошо. Сейчас я продолжала изучать их API и случайно получила доступ ко всем кормушкам этой модели в мире. У меня на экране бегают логи со всех существующих кормушек, я вижу данные о вайфай-сетях бедных китайцев, которые купили себе эти устройства. Могу парой кликов неожиданно накормить всех котиков и собачек, а могу «наоборот» лишить их еды, удалив расписания с устройств. Вижу, сколько у кого в миске корма сейчас лежит.

Не представляю сейчас, что с этим делать, это мой самый успешный (и неожиданный) взлом, так что я немного в ступоре».

Эта же девушка на своей странице в соцсети рассказала о том, как можно удаленно управлять самокатами Xiaomi M365 и Ninebot ES1/2/4, объяснив их уязвимости особенностями непродуманного изначально протокола, который, как выяснилось, вообще не предполагает какой-либо авторизации пользователей. То есть ошибки в протоколе просто невозможно исправить, можно лишь полностью поменять протокол, что равноценно выпуску новой модели самоката Xiaomi. Вот что пишет Анна в соцсети (орфография автора сохранена):

«Да, самокаты можно запаролить, но знаете, как проверяется авторизация? Приложение шлет запрос самокату «эй, вот этот пароль правильный?» и получает ответ «да, все ок» или «нет, он неправильный». Если получает первый ответ, приложение рисует вам интерфейс управления самокатом, а если второй, выводит ошибку. Только вот никакая сессия не устанавливается, а все дальнейшие запросы выполняются без паролей и ключей. Это просто проверка… Вы можете вырезать ее из приложения и делать с самокатом что угодно. Это я выяснила, когда интегрировала статус самоката в систему умного дома.

Поверьте, такие уязвимости не допускаются случайно, это просто изначальное нежелание нормально продумывать протокол… На самом деле приложение завершает регистрацию еще до того, как просит вас нажать кнопку. А если вы ее не нажмете, регистрация просто сбрасывается. Если почитаете мой разбор протокола, вы поймете, что можете управлять соседскими чайниками, даже не имея физического доступа в квартиру».

Скорее всего, таких случаев множество, просто далеко не все они оказываются на страницах СМИ и социальных медиа. А ведь в бэкдорах (специально оставленных «дырах» в протоколе) обвиняют не только разработчиков «умных» вещей, но и мессенджер WhatsApp, например, и некоторые социальные сети…

Вообще, когда на рынке появились бесплатные сервисы (те же мессенджеры или приложения), многие задавались вопросом, в чем суть таких «бизнесов»: ведь они не генерировали положительный денежный поток, так как предоставляли абсолютно бесплатные услуги, а перспектив монетизации не просматривалось. Вскоре товаром стали сами люди, точнее, их персональные данные. Зарабатывать на этом оказалось едва ли не выгоднее, чем на рекламе.

И вот уже сам легендарный «создатель интернета», программист и общественный деятель Тим Бернерс-Ли бьет в набат, требуя сделать интернет «безопаснее». «При поддержке правительств Франции и Германии, компаний Microsoft, Google, Facebook и более чем 160 других компаний» он провозглашает осенью 2019 года «принципы безопасного интернета» (ниже приведены основные):

1) поддерживать доступ в интернет каждого человека в любое время, всегда и везде, по доступным ценам;

2) уважать право на неприкосновенность личных данных;

3) развивать лучшее в человеке;

4) пользователи должны выступать со-творцами интернета, уважать права и достоинства других пользователей, защищать интернет.

В противном случае, предупредил Бернерс-Ли, всемирная сеть станет «источником киберпанковой антиутопии».

«В этот ключевой момент для интернета мы несем общую ответственность за борьбу за сеть, которую мы хотим. Многие из наиболее активных участников кампании по этому вопросу уже осознали, что совместный подход имеет решающее значение. Силы, ведущие сеть в неправильном направлении, всегда были очень могущественны. Независимо от того, являетесь ли вы компанией или правительством, управление сетью — это способ получения огромных прибылей или способ гарантировать, что вы остаетесь у власти», — предостерегает Бернерс-Ли.

Конечно, очень здорово, что такой уважаемый в мире высоких технологий человек, как Тим Бернерс-Ли, озаботился столь важной проблемой, как состояние интернета, но… есть ощущение, что его идеи немного запоздали, приблизительно лет на пятнадцать.

Кроме того, Бернерс-Ли обходит стороной ключевой, на самом деле, вопрос. Для того, чтобы реально воплотить в жизнь возвышенные «принципы безопасного интернета», нужно… запретить использование технологии Big Data, то есть сбор любых персональных данных. А ведь без «больших данных» невозможно обучать нейросети, то есть развивать искусственный интеллект. А это уже прямое нарушение третьего принципа социально-технологической эволюции и отказ от технологического прогресса. Вы серьезно верите в возможность повернуть эволюцию вспять?

В общем, учитывая, что интернет уже давно стал ареной настоящей кибервойны между конкурирующими государствами и способом получения высокотехнологичными корпорациями сверхдоходов путем эксплуатации «экономики внимания» и использования персональных данных граждан (зачастую без ведома самих пользователей), ожидать, что кто-то немедленно бросится исполнять «заветы Тима», бессмысленно.

Это подчеркивает Бенджамин Гарфилд, научный сотрудник Школы медиаискусств и технологий Солентского университета в Великобритании, в интервью медиапорталу «The Conversation»: «Алгоритмы таких компаний как Google, Facebook и Twitter определяют, что люди видят в интернете. Google зарабатывает на людях, которые пользуются его бесплатными услугами, за счет сбора данных пользователей для создания таргетированной рекламы, и его бизнес-модель вряд ли изменится в одночасье. Для успеха интернет-реформы потребуется сотрудничество между правительствами разных стран для эффективного регулирования работы технокомпаний, а также реакция со стороны пользователей».

Похоже, риски для «вычислительных машин предыдущего поколения», или, как любят выражаться ученые-биологи, «наборов из 46 хромосом», будут только возрастать. Для того, чтобы полностью устранить их, пользователю нужно не только соблюдать множество правил «киберграмотности», но желательно еще и разбираться в информационных технологиях, понимать, что, с точки зрения собственной безопасности, делать необходимо, а чем можно пренебречь, дабы не слишком усложнять собственную жизнь. Впрочем, то же самое можно сказать и о финансовой грамотности: как говорится, лучший способ быть финансово грамотным — это получить профильное образование.

Поэтому, принимая во внимание киберриски, возникшие для людей с появлением новых технологий, наверное, не стоит сильно преувеличивать именно их. В конце концов, технологические риски были всегда: с изобретением железных дорог и автомобилей появился риск попасть под поезд или машину, с появлением самолетов неминуемо возник шанс попасть в авиакатастрофу.

Тем не менее, в последние годы появилось немало рисков глобального масштаба, о которых стоит поговорить отдельно. Один из них — стремительное развитие военных технологий.

В 2019 году высокотехнологичные гиганты Amazon и Microsoft подтвердили, что, невзирая на протесты сотрудников, будут принимать участие в военном проекте Соединенных Штатов — JEDI, направленном на «повышение смертоносности» вооруженных сил Пентагона с помощью искусственного интеллекта. Alphabet (Google) публично отказался участвовать, сославшись на корпоративную этику.

Повсеместно искусственный интеллект все активнее используют в военных проектах, дискуссия об этичности этого публично не ведется, а риски не афишируются. Неудивительно, что мировые лидеры уже не рассматривают войну как нечто далекое и фантастическое, думая и даже говоря так, как в 2019 году выразился китайский лидер Си Цзиньпин: «Необходимо сконцентрироваться на задачах и быть готовыми к войне».

Появляются и совершенно новые технологии, такие, как, например, Автономные Боевые Системы (АБС). Это боевые роботы, которые смогут самостоятельно принимать решение о применении смертоносного оружия, и они становятся все более популярной идеей в военных ведомствах разных государств мира. США, Великобритания, страны ЕС, Китай, Россия, Индия, Израиль, Южная Корея — это далеко не полный перечень государств, значительно продвинувшихся в последние годы в разработке АБС.

Руководство Пентагона не скрывает, что в ближайшие годы Автономные Боевые Системы станут неотъемлемой частью вооруженных сил США. При этом противники технологии резонно указывают, что искусственный интеллект не может на свое усмотрение принимать решение о применении летального оружия. Представители военных ведомств в ответ замечают, что прогресс достиг такого уровня, что повсеместное распространение АБС становится лишь делом времени. Ведь такой робот гораздо менее уязвим, чем солдат из плоти и крови, дешевле в эксплуатации, а (самое главное) практически любую его ошибку при желании можно списать на технический сбой.

Несмотря на жаркую дискуссию вокруг использования Автономных Боевых Систем, страны, пытавшиеся обратить внимание на опасность технологий АБС для человечества, в свое время даже не смогли получить мандат на создание рабочей группы по обсуждению этого вопроса в рамках Организации Объединенных Наций. Ведь плюсы Автономных Боевых Систем для оборонных ведомств всех стран мира настолько очевидны, что долгосрочными рисками, похоже, будут пренебрегать до последнего. Кстати, пренебрежение долгосрочными рисками ради краткосрочных выгод уже стало мировым трендом.

Об огромных рисках использования АБС с искусственным интеллектом предупреждает Лора Нолан, бывшая сотрудница Google, работавшая в этой мегакорпорации над проектом по усовершенствованию технологии военных беспилотников. Она уверена, что, в отличие от беспилотных летательных аппаратов, которые контролируются операторами, зачастую находящимися за тысячи километров от места дислокации беспилотников, Автономные Боевые Системы могут совершать «ужасные вещи, для которых они изначально не были запрограммированы».

Она считает, что автономные роботы-убийцы, не управляемые человеком, должны быть запрещены международным договором наподобие тех, которые запрещают химическое или биологическое оружие: «Вероятность катастрофы прямо пропорциональна тому, сколько этих машин будет находиться одновременно в конкретном районе… Может случиться все что угодно, если роботы начнут вести себя неожиданным образом. Поэтому любые передовые системы вооружений должны полностью контролироваться человеком, в противном случае они должны быть запрещены, потому что слишком непредсказуемы и опасны».

Очень хочется надеяться, что такие боевые системы все-таки не будут полностью автономными. Ведь любое вторжение кибертеррористов в системы принятия решений АБС может привести к поистине катастрофическим последствиям — тем более что сетевые злоумышленники с усилением темпов технологического прогресса тоже прогрессируют. В 2019 году на одной из конференций хакеров была продемонстрирована программа, которую было возможно настроить так, чтобы она самостоятельно генерировала вредоносное (вирусное) программное обеспечение.

Программе было достаточно потренироваться на стандартной платформе для обучения искусственного интеллекта Open AI Gym, чтобы довольно быстро научиться прятать вредоносное программное обеспечение от систем защиты. Каким образом? Все оказалось банально и просто: антивирусные системы просто не могли распознать угрозу, настолько успешно алгоритм имитировал нормальное поведение, мимикрируя под обычные, часто используемые пользователем программы.

А ведь если такого рода технологии будут доработаны злоумышленниками и станут широко распространены, это позволит искусственному интеллекту и стоящим за ним хакерам наносить компьютерам пользователей и даже объектам государственной инфраструктуры максимальный урон при минимальных рисках быть обнаруженными. Не хочется даже представлять себе, что в этом случае могут натворить взломанные кибертеррористами Автономные Боевые Системы.

Впрочем, бывает, что искусственный интеллект может наломать дров и самостоятельно, без участия всяких «сетевых злоумышленников». Например, в судебных процессах.

Многие читатели наверняка знают, что нейросети уже несколько лет используются для анализа дел и вынесения рекомендаций (правда, пока необязательных к исполнению) судьям в Соединенных Штатах Америки. Гораздо менее известен другой факт. В 2018 году более 100 общественных и правозащитных организаций США выступили категорически против использования искусственного интеллекта в уголовных судебных процессах. Оказалось, что алгоритмы, изучая дела и характеристики подсудимых в рамках так называемой «оценки рисков», слишком большое значение уделяют социальному происхождению и жизненной истории обвиняемого.

Иными словами, при принятии решения о тех или иных рекомендациях судьям, искусственный интеллект основывается на закономерностях, которые он выводит исходя из полученных данных. Нейросети обучаются на массивах Big Data, а эти данные зачастую позволяют сделать статистический вывод о том, что представители социально незащищенных слоев более склонны к уголовным преступлениям и насилию, нежели выходцы из обеспеченных и благополучных семей.

И действительно, если алгоритм видит, что, например, низкий доход прямо коррелирует с высоким рецидивом преступлений, он может дать на этом основании ошибочную рекомендацию судье, посчитав, что именно низкий доход способствовал преступлению. На самом же деле причинно-следственные связи могут быть совершенно иными.

Многие правозащитники указывают, что использование искусственного интеллекта в уголовном процессе закрепляет социальное неравенство и приводит к обвинительному уклону в отношении представителей социально неблагополучных слоев населения значительно чаще, нежели чем в отношении среднего класса и обеспеченных граждан. А это уже прямой путь к возрождению классовых, а возможно и расовых предрассудков.

С одной стороны, кажется, что большинству стран мира до полноценной цифровизации и внедрения искусственного интеллекта еще далеко. С другой стороны, людям постепенно нужно привыкать к тому, что в преддверии технологической сингулярности в их повседневную жизнь все больше будет входить искусственный интеллект, и не всегда это будет происходить комфортно и безболезненно.

Это понимают, кстати, власти многих стран мира. Например, бывший российский премьер-министр Дмитрий Медведев высказывался о цифровизации предельно конкретно. «[Цифровая] революция — это и углубление неравенства и между людьми, и между странами, и всплеск безработицы, и вторжение в частную жизнь человека», — отмечал он в своем выступлении на саммите АТЭС в 2019 году, добавляя при этом, что данная революция является «абсолютным благом с точки зрения общественного развития». В другой раз Дмитрий Анатольевич сравнил масштабы изменений, ожидающие общество при цифровизации, с крушением Союза Советских Социалистических Республик.

Да, общество ждут изменения, причем колоссальные. Помимо беспилотников на дорогах, повсеместного распознавания лиц, 100 % безналичных платежей и электронного документооборота в скором времени могут стать реальностью и беспристрастный «алгоритмический» суд, и супермаркеты без обслуживающего персонала, и даже наделение машин статусом «субъектов права» (по аналогии с физическими и юридическими лицами). И это не шутка. Как писали российские СМИ, сегодня по инициативе экспертов нацпроекта «Цифровая экономика» ведется разработка кодекса прав машин и искусственного интеллекта (сейчас это называется «Федеральный закон, регулирующий правоотношения в сфере киберфизических систем». В рамках этого национального проекта обсуждают и создание Федерального агентства по робототехнике и искусственному интеллекту и даже внедрение «машиночитаемого права и автоматического правоприменения» в сфере действия не только, например, Правил дорожного движения, но и других кодексов.

Конец ознакомительного фрагмента.

Оглавление

* * *

Приведённый ознакомительный фрагмент книги НеВенец творения. Всё, что вы боитесь знать о будущем предоставлен нашим книжным партнёром — компанией ЛитРес.

Купить и скачать полную версию книги в форматах FB2, ePub, MOBI, TXT, HTML, RTF и других

Смотрите также

а б в г д е ё ж з и й к л м н о п р с т у ф х ц ч ш щ э ю я