spot_img
7 июля, 2025
spot_img
Домой Блог Страница 1681

Представлена новая версия Amazon DeepRacer

Amazon DeepRacer Evo

Компания Amazon представила новую версию беспилотной машинки DeepRacer, которая позиционируется как платформа для изучения алгоритмов машинного обучения инженерами и программистами. Новая модель получила стереокамеру и лидар. Кроме того, компания добавит в заезды препятствия, а также разрешит заезды одновременно двух моделей.

Впервые о проекте AWS DeepRacer стало известно в 2018 году. В его рамках Amazon представила одноименную облачную платформу, позволяющая студентам и начинающим разработчикам создавать, обучать и испытывать на практике при помощи специального 3D-симулятора собственные наработки в сфере алгоритмов автономного вождения.

Также Amazon организовала две гоночные лиги — онлайновую и офлайновую. Онлайновая лига – для разработчиков, которые считают, что их алгоритм достаточно конкурентоспособен и они могут сравнить свои решения в виртуальных гонках. В офлайновой лиге алгоритмы соревнуются между собой уже в реальных заездах на фирменных машинках DeepRacer, которые в первой версии ездили лишь по простому треку, ориентируясь по данным с одной камеры.

В новой версии Amazon представила машинку DeepRacer Evo с более сложным набором датчиков. Теперь она получает данные об окружающем пространстве с помощью двух камер, а также лидара на крыше. В начале 2020 года новая версия будет доступна в виде готового устройства, а также в виде набора датчиков, который можно будет установить на старую версию.

Разработчики добавили в соревнования новые режимы. Раньше участники соревновались в скорости прохождения трека во время одиночных заездов, теперь благодаря наличию всестороннего лидара они смогут соревноваться напрямую во время заездов с участием двух машин. На трассе появятся препятствия, которые машинкам необходимо будет обнаруживать и объезжать. Кроме того, Amazon увеличила число реальных гонок в разных странах до 30 и число виртуальных до 24 и объявила о создании инструмента, который позволит всем желающим создавать собственные локальные гоночные мероприятия.

Сейчас проводятся заключительные тестовые заезды, а уже в 2021 году будут проводиться соревнования без участия профессиональных пилотов.

Как технология DeepFake меняет мир

Deepfake

Что могут нейронные сети

Технология DeepFake становится предметом пристального внимания не только журналистов, но и IТ-аналитиков, которые называют эту технологию одним из наиболее опасных изобретений последних лет. Опасность этой технологии признают даже ведущие политики разных стран. Своим появлением DeepFake обязана генеративно-состязательным нейросетям (Generative Adversarial Network — GAN). Механизм их работы заложен в двух противоборствующих алгоритмах. Первый обучается на предоставленных ему фотографиях, чтобы сформировать реалистичную подмену лица, а второй отсекает неудачные варианты до тех пор, пока сам не начнет путать копию и оригинал. Для создания подделки и первой, и второй нейросети нужно множество примеров фотографий человека в разных ракурсах, позах и с разной мимикой. После анализа таких изображений алгоритм GAN начинает генерировать поддельные фотографии, а позже DeepFake-инструменты помогут добавить такие фотографии в видеоролик. Алгоритмы GAN используются многими компаниями и научными учреждениями, например, физики-ядерщики применяют их для прогнозирования поведения частиц, а врачи для улучшения качества изображений. А компания Google еще 5 лет назад представила общедоступный набор программных инструментов под названием TensorFlow, который помогает в обучении генеративно-состязательных нейросетей. Кроме визуального синтезирования, генеративно-состязательные нейросети уже умеют работать и с голосом. Например, такие стартапы как Lyrebird и iSpeech умеют создавать звуковые примеры на основе голосов людей. Иными словами, такие стартапы могут получить запись голоса, проанализировать ее и создать максимально-реальную его копию, но уже для озвучивания других фраз.

Название DeepFake представляет собой комбинацию двух терминов: «Deep» («глубокий») и «Fake» («подделка»). В этом названии первая часть — это сокращение термина «Deep Learning». Первое публичное появление технологии произошло на Reddit, где лица таких звезд, как Галь Гадот, Скарлетт Йоханссон, Тейлор Свифт, Эмма Уотсон и Кэти Перри, были использованы в роликах эротической направленности. Позднее эти видео появились в Facebook и других социальных сетях. Скандал был настолько громким, что о борьбе с DeepFake заговорил лично глава Facebook Марк Цукерберг, пообещав откорректировать правила публикации. Позднее он и сам стал жертвой технологии. В довольно качественно сделанном ролике его представили говорящим о том, что он контролирует мир с помощью информации. Второй «всплеск популярности» DeepFake пережила, когда появилось видео с президентом США Бараком Обамой. Еще одним примером реализации технологии DeepFake стало интервью Дональда Трампа самому себе.

Но не все работы наносили вред репутации известных людей. Были и довольно безобидные развлечения. Например, одна группа энтузиастов начала заменять лица знаменитых людей в кино и сериалах Николасом Кейджем. В 2018 году была представлена первая публичная программа для подмены лиц под названием FakeApp, которая открыла доступ к инструментам DeepFake простым пользователям. Как оказалось, это был тот самый алгоритм, которым пользовался создатель эротических роликов.

Кроме того, инженеры из Университетов Стэнфорда, Макса Планка и Принстона создали на основе алгоритма DeepFake нейросеть, которая позволяет редактировать речь говорящего на видео так же просто, как текст в текстовом редакторе. Алгоритм получил название Neural Rendering. Ему требуется около 40 минут, чтобы изучить мимику говорящего на видео и сопоставить форму его лица с каждым фонетическим слогом. После этого нейросеть составляет 3D-модель лица говорящего и позволяет редактировать то, что он говорит, изменяя при этом мимику спикера. Исследователи отмечают, что в идеальном мире разработка позволит сократить затраты на пересъемку неудачных дублей. Однако от идеи опубликовать код нейросети ученые отказались, так как предполагают, что она может использоваться для подстановки в ролики слов и выражений, которых спикер на самом деле не произносил.

DeepFake для широких масс

Главная опасность технологии DeepFake состоит в том, что инструменты, которые позволяют сделать все вышеописанное, стали доступны обычным людям. Для работы таких приложений нужны мощные компьютеры, но и это сегодня не является особой проблемой. Как мы уже отметили выше, главным инструментом для создания DeepFake является приложение FakeApp. Несмотря на блокировку оригинального сайта приложения www.fakeapp.org и различных упоминаний и обсуждений его использования, в Сети еще сохранились сайты-зеркала, а на Reddit есть раздел со ссылками на скачивание FakeApp со страниц файловых хостингов Google Drive и анонимного Mega, а также с инструкциями по его применению. Журналист The New York Times Кевин Роуз (Kevin Roose) протестировал работу FakeApp и описал свой опыт. Для создания видео ему пришлось использовать удаленный сервер, арендованный через Google Cloud Platform, который обеспечил достаточную вычислительную мощность. Но даже и в этом случае удаленный сервер генерировал модели более 8 часов, а аренда сервера обошлась в 85,96 доллара. На обычном ноутбуке для такой задачи могут понадобиться дни или даже недели. В эксперименте для первого DeepFake-ролика использовались более 400 фотографий автора статьи и более тысячи снимков актера Райана Гослинга. Даже при этом видео вышло весьма размытым, поэтому позже журналист использовал намного больше фотографий. Эксперимент был интересен еще и тем, что и его участник, и разработчик FakeApp, прокомментировавшие работу приложения, так и остались анонимными. Они не назвали свои настоящие имена и общались с помощью ников и обезличенных адресов электронной почты.

Этим летом в Китае появилось приложение Zao, которое также поддерживает технологию DeepFake. Приложение быстро заняло лидирующие места в китайском App Store, но в то же время стало расти число недовольных Zao. В первую очередь из-за пользовательского соглашения, которое давало разработчикам безграничные и безотзывные права на изображения и видео с лицами пользователей. После скандала соглашение было изменено, а компания заявила, что не будет хранить биометрические данные пользователей. Но ситуация усугубилась тем, что Zao принадлежит сайту знакомств Momo. Общественность напугала возможность того, что их данные могут быть переданы Momo и использованы ею с неопределенными целями. В результате рейтинг Zao моментально упал. В защиту Zao выступил руководитель отдела коммуникаций компании Deeptrace, которая занимается вычислением мошенников и киберпреступников, Генри Эйдер. Он заявил, что приложение не представляет угрозы для общественности, поскольку его функционал ограничен. В нем есть встроенная библиотека видео из различных фильмов и клипов, и поменять лицо можно лишь на предложенных записях. По уверению Эйдера, технология может стать проблемой только в том случае, если у пользователей будет возможность накладывать другие лица на свои собственные видео. Популярная китайская система on-line платежей Alipay заявила, что алгоритмы распознавания лиц гораздо сложнее и точнее, и взломать его при помощи такого приложения невозможно, а китайская платформа для общения WeChat также подтвердила, что Zao не несет угрозы пользователям. Правда, мессенджер ограничил доступ к скандальному приложению, и пользователи Zao не могут отправить друзьям ссылку-приглашение.

Чем опасен Deepfake?

Как считают многие эксперты, развитие технологии DeepFake может оттолкнуть нас на столетия назад, когда видео и фотографии не считались достаточными доказательствами. И действительно, такие технологии совершенствуются с каждым днем, а вот развитие инструментов, способных распознать поддельный контент, пока находится в зачаточном состоянии. Журналистка The Guardian считает, что Deepfake может стать орудием против женщин в интернете, поскольку львиная доля подобного контента приходится на махинации с их лицами для создания продукта эротического содержания. Уже даже появилось такое понятие, как DeepFake-преступность. Широкую огласку получил случай ограбления британской энергетической компании, директору которой позвонил якобы управляющий из Германии. Программа, сымитировав его внешность и акцент, попросила переслать деньги фирме-поставщику из Венгрии. Так компания потеряла 220 тысяч евро.

Опасности, которые несет DeepFake — это не только политическая пропаганда и конкурентная борьба, в которой можно заставить соперника «говорить» откровенную ложь, в которую большинство поверит. DeepFake — это еще и весьма опасный инструмент манипулирования общественным мнением, с помощью которого можно легко посеять панику и страх. Политик, объявляющий о ядерном ударе, или глава полиции, заявляющий о распылении отравляющего газа — все это реалистичные сценарии, которые можно смоделировать с помощью DeepFake. DeepFake в порноиндустрии также может стать обыденным явлением, а скорость распространения таких видеороликов в социальных сетях будет мгновенной. Тем не менее, уже сейчас существуют некоторые методологии, позволяющие определить DeepFake, а в последнее время появились и инструменты для их идентификации.

Стандартные модели обнаружения поддельных видео анализируют видеокадры отдельно и пытаются определить признаки манипуляций. Новая технология требует гораздо меньше вычислительной мощности и времени, так как она «просматривает» видео целиком. После этого она складывает кадры видео друг на друга и ищет возможные несоответствия в том, как перемещается объект съемки. Признаками поддельного видео могут быть движения век человека или странные жесты, которые исследователи называют «мягкими биометрическими подписями». Поскольку большинство поддельных алгоритмов не полностью моделируют движения человека, они и могут выдать поддельные материалы. Так, например, ученые из Института информационных наук США использовали набор данных, состоящий из около 1000 поддельных видео, чтобы обучить новый инструмент. Теперь он может идентифицировать созданные нейросетью видео с точностью до 96%.

Тем не менее, в начале июля 2019 года в Виргинии был принят закон, запрещающий распространение порнографии с подменой лиц. Это первый штат в США, где была запущена подобная инициатива. Начиная с 1 июля 2019 года, любой, кто распространяет или продает фальшивые фотографии и видеоролики сексуального характера с целью шантажа, домогательства или запугивания в этом штате может быть оштрафован на сумму до 2500 долларов. Также предусмотрен тюремный срок до 12 месяцев. Такой же закон вступил в действие с 1 сентября текущего года в Техасе, а в Нью-Йорке рассматривается законопроект, запрещающий создание «цифровых копий» людей без их согласия.

По словам экспертов, выявить подделки становится все сложнее. Компания McAfee, занимающаяся проблемами кибербезопасности, сообщила, что подмену лиц в видео уже нельзя определить невооруженным глазом. В программной речи на конференции по кибербезопасности RSA в Сан-Франциско директор по технологиям McAfee Стив Гробман (Steve Grobman) и главный специалист компании по данным Селеста Фралик (Celeste Fralick) предупредили, что использование новой технологии хакерами — лишь вопрос времени. Теперь, когда злоумышленники способны создать индивидуализированный целевой контент, они могут использовать искусственный интеллект в различных целях, например, для взлома учетных записей с помощью методик социальной психологии или фишинг-атак. Персонализированный фишинг, то есть мошенничество, направленное на получение банковских конфиденциальных данных с целью хищения денег, является более успешным, однако новые возможности искусственного интеллекта позволяют проводить его в масштабах автоматизированных атак. Гробман подчеркнул, что сами по себе технологии DeepFake представляют собой орудие, которое можно использовать в самых различных целях. Запретить злоумышленникам использовать новые методики невозможно, но можно своевременно наладить линию защиты, считает он.

Мы вплотную приблизились к миру, в котором фейк и правда становятся практически неотличимы друг от друга. DeepFake делают фейки настолько реалистичными, что наши слух и зрение не будут способны отличить ложь от правды. Развитие технологий — это не только прогресс, но и появление новых мошеннических схем. Чтобы не стать жертвой, нужно следить за появлением технологических новшеств и всегда перепроверять информацию.

Электропикап Tesla Cybertruck появится в GTA V

Tesla Cybertruck

Электрический пикап Tesla Cybertruck был представлен совсем недавно и моментально стал популярным автомобилем. Первый электропикап Tesla уже успел обзавестись модом для игры GTA 5.

Производство новинки начнется только в 2021 году, но покататься на нем в виртуальном пространстве в скором времени сможет любой желающий. Один из пользователей опубликовал видео, в котором демонстрируется езда Cybertruck в GTA 5. Актуальный мод выглядит достаточно реалистично.

Сообщается, что на данный момент мод пока еще не готов окончательно, однако YouTube уже завален просьбами сделать его как можно скорее.

Oppo создала геймпад размером с автомобиль

Oppo

Компания Oppo выпустила самый большой геймпад в мире, который по размеру сопоставим с автомобилем. Огромный контроллер установлен в Китае, в одном из торговых центров. Отмечается, что это не просто муляж, а полноценное устройство, с помощью которого можно играть. Только при огромных габаритах поиграть с его помощью получится далеко не у всех.

По словам представителей Oppo, геймпад представляет собой «суперувеличенную» версию геймпада Oppo C1. Длина устройства составляет 4,002 м, ширина — 2,168 м, а толщина – 0,724 м.

Устройство получило звание самого большого в мире геймпада официально — рекорд был занесен в Книгу рекордов Гиннеса.

Kapital Bank организовал международное мероприятие «DevDay in Baku’19»

DevDay

Kapital Bank организовал международное мероприятие «DevDay in Baku’19» с участием IT-специалистов. Проект был проведен совместно с компанией IBM — мировым гигантом в сфере IT. В мероприятии приняли участие сотни слушателей, представляющих различные компании. В форуме участвовал и заместитель Председателя правления, директор по информационным технологиям Kapital Bank Нахид Зейналов. В качестве спикера выступил и поделился своим опытом директор департамента развития информационных систем Kapital Bank Фарид Самедов.

Мероприятие собрало специалистов по программному обеспечению, инженеров-программистов, UI/UX дизайнеров и других экспертов в области информационных технологий. Приглашенные эксперты из разных стран мира поделились с участниками своим опытом, а также рассказали о реализованных ими проектах.

Опытные эксперты представляли различные компании Азербайджана, Великобритании, Германии, Кореи, России и других стран. Помимо основных сессий, участники смогли присоединиться к презентациям одной из дополнительных сессий на тему «Development», «Microservices» и «Product Design».

«В настоящее время в Kapital Bank проводится комплексная работа в направлении развития информационных технологий. Для того, чтобы быть цифровым и инновационным банком, важно также иметь и мощный кадровый потенциал. В связи с этим в текущем году с целью создания интереса к этой сфере мы пригласили студентов принять участие в программе стажировки в области IT, и в итоге приняли на работу десятки молодых людей. В 2020 году мы также продолжим работать в этом направлении и будем готовить новых профессиональных специалистов», — рассказал заместитель Председателя Правления, Директором по Информационным Технологиям Kapital Bank Нахид Зейналов.

Отметим, что Kapital Bank традиционно каждый год проводит программу стажировки. В настоящее время в Kapital Bank можно пройти стажировку в сфере IT. Те, кто заинтересован в построении успешной карьеры, могут отправить свои резюме по адресу [email protected], указав в теме письма «İT Təcrübə».

Первый шаг к успешной карьере с Azercell

Azercell

Компания «Azercell Telekom» приняла участие на II карьерной выставке, прошедшей 28 ноября под лозунгом «Первый шаг в карьере» во Дворце спорта в рамках совместного сотрудничества Азербайджанского Технического Университета и Государственной Службы Занятости при Министерстве Труда и Социальной защиты. Выставка является идеальной платформой, которая позволяет молодым специалистам, получить информацию о карьерных возможностях и наладить контакт с представителями компаний. Специалисты Департамента Управления Человеческим Капиталом Azercell встретились с посетителями мероприятия, ответили на интересующие их вопросы, проинформировали о текущих вакансиях в компании, а также ежегодно проводимых программах Стипендии и Стажировки для студентов.

12 самых дорогих ошибок в электронных таблицах в истории бизнеса

ошибок

Даже самые крупные организации не застрахованы от ошибок в расчетах, случайных перестановок цифр и опечаток. Почти в 90% всех случаев использования электронных таблиц встречаются ошибки. Любые, даже самые аккуратно заполненные и тщательно проверенные таблицы содержат 1% ошибок в ячейках с формулами. В больших таблицах с тысячами формул количество ошибок исчисляется десятками.

Каковы же последствия таких, казалось бы, незначительных промахов? Почти каждая пятая крупная компания несет финансовые убытки по причине ошибок в электронных таблицах. В большинстве случаев крупные компании могут компенсировать эти убытки за счет перераспределения средств, небольшим компаниям такое решение обычно недоступно.

Почему в электронных таблицах столько ошибок? Есть две причины. Во-первых, электронные таблицы, несмотря на то, что они способствовали расцвету тысяч компаний и лишили работы миллионы специалистов, по-прежнему создаются людьми. А люди совершают ошибки. Во-вторых, чем больше размер таблицы, тем сложнее ее структура. Чем сложнее структура, тем выше вероятность ошибки. В некоторых случаях может повезти и эти ошибки не отразятся на конечных финансовых результатах. В противном случае ущерб может быть весьма серьезным.

Двенадцать самых дорогостоящих ошибок в электронных таблицах за всю историю бизнеса.

  1. TransAlta. Неверно скопированные и вставленные данные обошлись этой компании в 24 млн. долларов. В результате нелепой ошибки канадский производитель электроэнергии заключил больше американских хеджинговых контрактов по более высокой цене, чем планировалось.
  2. Fidelity. Широко известный фонд, принадлежащий компании Magellan, был вынужден отменить распределение годовых дивидендов по 4,32 доллара на акцию. Почему? По причине отсутствующего отрицательного знака. Налоговый бухгалтер не поставил минус перед суммой чистых потерь капитала в размере 1,3 млрд. долларов при переносе данных из финансовых документов фонда в электронную таблицу. Таким образом, убытки превратились в прибыль, увеличив сумму дивидендов до 2,6 млрд. долларов.
  3. MI5. Даже шпионы совершают ошибки. В 2010 году британская разведка установила прослушку для тысячи лишних номеров. В результате ошибки форматирования агентство затребовало данные по всем телефонным номерам, заканчивающимся на 000 вместо фактических последних трех цифр.
  4. Райнхарт-Рогофф. От ошибок в электронных таблицах не застрахованы и профессоры Гарварда. Отчет Кармен Райнхарт и Кеннета Рогоффа «Экономический рост в период задолженности», согласно которому при достижении размера госдолга в 90% ВНП происходит падение экономики на 0,1%, считался серьезным исследованием. Как видно на рисунке, формула среднего значения не включает в себя пять стран из списка. Устранение этой ошибки ведет к существенному изменению результатов. На самом деле при размере госдолга в 90% наблюдается экономический рост на уровне 2,2%.

  1. Eastman Kodak. Компания была вынуждена внести исправления в финансовые отчеты за два квартала на 2 млн. долларов и 13 млн. долларов соответственно по причине ошибки в электронной таблице, с помощью которой рассчитывались пособие и особые льготы в случае выхода на пенсию для одного-единственного сотрудника. Инцидент произошел в то время, когда компания теряла свыше 100 млн. долларов каждый квартал. В публичном заявлении об исправлениях представитель Eastman Kodak сообщил, что «к общему размеру пособия было добавлено слишком много нулей».
  2. Университет Толедо. Руководство университета обнаружило, что бюджет содержал на 2,4 млн. долларов меньше, чем рассчитывалось. Это произошло именно в то время, когда государство решило сократить финансирование вуза. Причиной ошибки стала опечатка в электронной таблице, из-за которой были неверно посчитаны количество абитуриентов и, как следствие, прибыль.
  3. Red Envelope. Финансовый директор компании подал в отставку, а стоимость ее акций упала более чем на четверть. В чем причина? Плохие продажи на День св. Валентина и ошибка в бюджете. Одна из ячеек электронной таблицы была заполнена неверно, что привело к ошибке в расчетах валовой прибыли.
  4. Emerson. Строительная компания не учла 3,7 млн. долларов при расчете общей стоимости тендера. В формулу расчета общей стоимости не включили одну ячейку, в которой была указана стоимость электротехнических работ.
  5. Олимпийские игры в Лондоне. Вместо «10000» сотрудник случайно ввел число «20000» в ячейку электронной таблицы, и Лондонский олимпийский комитет продал 10 тысяч билетов на несуществующие места любителям синхронного плавания, желавшим посмотреть отборочные выступления. Когда ошибка была обнаружена, комитету пришлось в качестве компенсации предоставить билеты на основные выступления за свой счет.
  6. Barclays Capital. Когда Lehman Brothers обанкротилась, банк Barclays приобрел часть активов компании, в том числе 179 контрактов, абсолютно непредумышленно. Ячейки с нежелательными контрактами были скрыты, а не удалены из электронной таблицы, которая содержала почти 1000 строк и 24000 ячеек. При преобразовании таблицы в документ PDF для отправки на судебный веб-сайт ячейки снова стали видны. Barclays Capital подала прошение об освобождении от обязательств, однако в конце концов была вынуждена смириться с убытками на неназванную сумму.
  7. Дело «Лондонского кита». В результате непроверенного копирования большого количества ячеек и ошибок в уравнениях для моделирования риска JP Morgan значительно недооценили недостатки объединенного кредитного портфеля, что привело к убыткам и штрафам на общую сумму почти в 6,5 млрд. долларов.
  8. Fannie Mae. Во время перехода на новую бухгалтерскую систему финансовые специалисты компании использовали электронные таблицы для расчетов, необходимых по новым стандартам. Таблицы содержали ошибку, которая привела к искажению результатов на 1,1 млрд. долларов. Компания была вынуждена признать ошибку на 1,136 млрд. долларов при расчете общего акционерного капитала, произошедшую вследствие «неумышленной оплошности при использовании электронных таблиц в процессе внедрения новой системы бухучета», и внести исправления в финансовый отчет за третий квартал 2003 года.

Источник: oracle.com.

 

 

В Великобритании закрыт сайт по продаже хакерских инструментов

продаже

Веб-сайт Imminent Methods, по продаже хакерских инструментов, позволяющих злоумышленникам брать под контроль компьютеры пользователей, был закрыт после международного расследования, об этом пишет BBC.

Национальное агентство по преступности Великобритании (NCA) заявило, что услугами Imminent Methods воспользовалось около 14500 человек. Для того чтобы найти злоумышленников, силы правопорядка провели обыски в более чем 80 объектах по всему миру. Также полиции удалось отследить людей, купивших хакерское программное обеспечение. Им будет предъявлено обвинение в ненадлежащем использовании компьютера. Международная операция была проведена Федеральной полицией Австралии.

Полиция сообщила, что всего в связи с продажей и использованием хакерского программного обеспечения было арестовано 14 человек.

В Epic Games Store началась раздача Rayman Legends

Rayman Legends

В Epic Games Store стартовала раздача игры Rayman Legends.

Rayman Legends — кооперативный красочный платформер, вышедший в 2013 году, прямое продолжение Rayman Origins. По сюжету игры Рэйману и его друзьям предстоит спасти сказочные миры от ночных кошмаров.

Игру можно забрать до 6 декабря.

Следующей бесплатной игрой станет Jotun: Valhalla Edition — приключенческий экшен, вдохновленный скандинавской мифологией.

Xiaomi опубликовала отчет за третий квартал 2019 года

Xiaomi

Компания Xiaomi опубликовала отчет за третий квартал 2019 финансового года. Доход компании за отчетный период составил 7,634 млрд. долларов. По сравнению с предыдущим кварталом этот показатель увеличился на 3,3%, а в годовом выражении — на 5,5%.

Операционная прибыль за год выросла на 40,8%, до 442,84 млн. долларов. По сравнению с предыдущим кварталом показатель увеличился на 33,2%.

Чистая прибыль Xiaomi в третьем квартале 2019 финансового года составила 358,43 млн. долларов. По сравнению с предыдущим кварталом показатель увеличился на 28,8%.

За третий квартал было продано 32,1 млн. штук смартфонов.