Как Беларусь повышает качество ИИ сервисов
2 июля 2025
Искусственный интеллект (ИИ) трансформирует практически все секторы экономики и социальной сферы Беларуси, включая здравоохранение, образование, транспорт и экологию. Национальная стратегия устойчивого развития до 2040 года предусматривает интеграцию комплекса технологий ИИ во всех сферах национальной экономики.
Однако стремительное расширение сфер применения ИИ ставит общество перед дилеммой: как обеспечить технологический прогресс, не жертвуя безопасностью, предсказуемостью и этичностью применения технологий?
При поддержке Программы развития ООН (ПРООН) Беларусь разрабатывает комплексную нормативную базу для регулирования искусственного интеллекта, опираясь на передовые международные практики и учитывая национальные приоритеты.
ИИ и достижение Целей устойчивого развития (ЦУР): возможности и риски
Влияние искусственного интеллекта на достижение Целей устойчивого развития неоднозначно.
Иcкусственный интеллект может положительно сказаться на достижении 79% задач Целей устойчивого развития.
Исследования показывают, что ИИ способен позитивно влиять на достижение ЦУР, предлагая инновационные решения для наиболее актуальных вызовов развития. Например, в контексте борьбы с бедностью пространственный анализ, проведенный ИИ, может помочь улучшить важную для благополучия человека инфраструктуру (объекты торговли, транспорта, социальной сферы и здравоохранения), повышая эффективность адресной поддержки населения. Применительно к обеспечению гендерного равенства ИИ может содействовать выбору профессии, лучше подходящей человеку по индивидуальным навыкам, снижая гендерную дискриминацию при трудоустройстве. В климатической повестке модели прогнозирования продуктивности сельскохозяйственных культур открывают новые возможности для адаптации сельского хозяйства к последствиям изменения климата.
Внедрение ИИ к 2030 году может привести к сокращению 92 миллионов работников, но одновременно создаст 170 миллионов новых, более высокотехнологичных рабочих мест по всему миру.Всемирный экономический форум
Вместе с тем масштабное применение ИИ может замедлить достижение ЦУР через усиление неравенства, вызванного неравномерным доступом населения к цифровым технологиям и ИИ. Обучение алгоритмов на неполных или смещенных данных может привести к ошибочным решениям. Риски кибербезопасности и нарушения конфиденциальности персональной информации дополняют перечень потенциальных угроз, связанных с бесконтрольным развитием комплекса ИИ-технологий.
Эта двойственность подчеркивает особую важность разработки четких стандартов, которые смогут раскрыть потенциал ИИ, минимизируя сопутствующие риски для человеческого развития.
Формирование национальной экосистемы стандартизации ИИ
Вопросы стандартизации ИИ обсуждались в рамках Digital Expo 2025 (TIBO) в Минске. Уже четвертый год подряд Лаборатория ПРООН по ускорению устойчивого развития собирает экспертов на площадках крупнейшего цифрового форума страны. Круглый стол «Стандартизация искусственного интеллекта», проведенный совместно с Государственным комитетом по стандартизации Республики Беларусь при участии ведущих общественных объединений, бизнес-ассоциаций и академических учреждений, стал важным этапом в формировании национальной системы регулирования ИИ.
Участники круглого стола ознакомились с опытом Китая, России и государств Евразийского экономического союза в области регулирования искусственного интеллекта, базирующимся на лучших практиках Международной организации по стандартизации. Такой сравнительный анализ позволил выявить оптимальные подходы к адаптации международных норм под белорусские реалии.
Беларусь только начинает путь к формированию единой терминологии и понятийного аппарата в сфере искусственного интеллекта. ПРООН поддерживает национальные усилия как в области законодательного регулирования, так и в разработке технических стандартов для применения ИИ.
В ближайшее время в стране планируется создать десять национальных стандартов в сфере ИИ, три из которых разрабатываются при поддержке ПРООН:
Обзор этических и социальных проблем.
Управляемость автоматизированных систем искусственного интеллекта.
Безопасность и конфиденциальность при использовании искусственного интеллекта.
Этика ИИ
Дискуссии об этических аспектах искусственного интеллекта сопровождают развитие данной области с момента появления первых алгоритмов машинного обучения. Однако в условиях, когда ИИ-системы демонстрируют способность превосходить человеческие возможности в решении задач, традиционно относящихся к исключительной компетенции людей, этические соображения приобретают особую актуальность.
Разрабатываемый стандарт «Обзор этических и социальных проблем» направлен на повышение предсказуемости и безопасности ИИ за счёт системного подхода к предотвращению неэтичного использования алгоритмов. Основные риски концентрируются вокруг практик сбора и использования информации, включая неавторизованный доступ к ней и обучение на необъективных, неточных или нерепрезентативных данных. Феномен «черного ящика», характеризующийся невозможностью понимания механизмов принятия решений ИИ, усугубляется отсутствием прозрачности в отслеживании данных, процессов и результатов работы алгоритмов. Неполное понимание долгосрочного воздействия искусственного интеллекта на общественные структуры дополняет спектр этических вызовов.
Разрабатываемый стандарт не предполагает продвижения какой-либо конкретной системы ценностей. Он охватывает широкий спектр критериев от подотчетности и недискриминации до защиты персональных данных.
Управляемость ИИ
Стандарт «Управляемость автоматизированных систем искусственного интеллекта» приобретает особое значение в контексте применения ИИ в медицине, юриспруденции и транспорте. Нейронные сети зачастую принимают решения, логика которых не поддается объяснению, что вызывает вопросы о механизмах передачи управления от ИИ к человеку в критических ситуациях и о проверке надежности алгоритмов.
Стандарт устанавливает требования к наблюдаемости ИИ, включая возможность мониторинга их состояния в режиме реального времени. Протоколы передачи контроля определяют условия и процедуры человеческого вмешательства в автоматизированные процессы. Особое внимание при разработке стандарта уделяется алгоритмам реагирования на неопределенность – важному элементу для обеспечения безопасности в непредвиденных обстоятельствах.
Безопасность и конфиденциальность ИИ
Стандарт «Безопасность и конфиденциальность при использовании искусственного интеллекта» отвечает на ключевые вызовы цифровой эпохи: защиту персональных данных и предотвращение злоупотреблений возможностями ИИ. Стандарт предлагает системный подход к предотвращению утечек персональных данных, которые ИИ может непреднамеренно раскрыть или восстановить по косвенным признакам.
Определение уязвимостей в архитектуре ИИ, потенциально используемых в противоправных целях, составляет важный компонент стандарта. Разработка методик оценки рисков и внедрение защитных механизмов формируют комплексную систему обеспечения кибербезопасности ИИ-технологий.
ИИ и окружающая среда
Одной из отличительных особенностей белорусского подхода к стандартизации ИИ стало внимание к лучшим практикам применения искусственного интеллекта в сфере управления природными ресурсами и охраны окружающей среды. ИИ показывает высокую эффективность в выявлении участков лесных массивов, благоприятных для распространения насекомых-переносчиков зоонозных заболеваний, что имеет критическое значение для предотвращения эпидемий инфекционных заболеваний, передающихся от животных к человеку.
Так, в Мозамбике при поддержке ПРООН была внедрена программа на базе ИИ Zzapp Malaria, которая помогла снизить заболеваемость малярией на 52%. Решение оказалось вдвое эффективнее обычных противомоскитных сеток и может быть адаптировано для других регионов с похожим климатом.
Кроме того, использование ИИ существенно повышает эффективность превентивных мер и систем раннего предупреждения о природных катастрофах. Например, подразделение ПРООН SDG AI Lab разработало прототипы систем для оповещения сельского населения Мадагаскара о приближающейся засухе и расчета безопасных маршрутов эвакуации при землетрясениях в Стамбуле, Турция.
Следующие шаги
Работа ПРООН способствовала формированию экспертного сообщества для создания технического комитета «Искусственный интеллект», ответственного за рассмотрение и утверждение стандартов ИИ.
В перспективе это станет основой для формирования межгосударственного технического комитета по гармонизации стандартов различных юрисдикций. Планируется расширять взаимодействие с частным сектором и неправительственными организациями, развивать программы цифрового образования в области стандартизации ИИ с привлечением экспертного потенциала Стамбульского регионального центра ПРООН.
Координация усилий государственных институтов, научного сообщества и международных партнеров создает надежную институциональную основу для развития технологий будущего в качестве акселератора достижения ЦУР.
Белорусский опыт стандартизации искусственного интеллекта демонстрирует возможность гармоничного сочетания технологических инноваций с принципами устойчивого и этичного развития, что может стать ориентиром для других государств, стремящихся к построению ответственной цифровой экономики будущего.