The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Опубликован стандарт параллельного программирования OpenMP 6.0

15.11.2024 09:44

После трёх лет разработки опубликован набор спецификаций OpenMP 6.0 (Open Multi-Processing), определяющих API и способы применения методов параллельного программирования для языков Си, Си++ и Фортран на многоядерных и гибридных (CPU+GPU/DSP) системах с общей памятью и блоками векторизации (SIMD). Предполагается, что начальная поддержка отдельных возможностей OpenMP 6.0 будет включена в состав выпусков LLVM/Clang 20 и GCC 15.

Основные изменения в OpenMP 6.0:

  • Упрощён процесс программирования задач (task), определяющих независимые части программы, которые могут выполняться параллельно с другими частями.
    • Добавлена возможность выполнения задач в потоках free-agent, не привязанных к группам потоков (teams), выполняющих параллельные регионы (parallel region, блок кода, выполняемый в нескольких потоках).
    • Обеспечена поддержка сохранения графа задач (taskgraph), определяющего зависимости между задачами и порядок выполнения задач, для повышения эффективности последующего повторного воспроизведения.
    • Реализован механизм прозрачных задач ("transparent tasks") для упрощения управления зависимостями и автоматического управления выполнением дочерних задач.
  • Расширена поддержка вычислительных устройств, которые могут использоваться для выполнения параллельных задач (CPU, GPU, DSP и т.п.).
    • Добавлен новый синтаксис массивов, позволяющий использовать директиву "workdistribute" для разделения обработки массивов между разными единицами работы.
    • Расширены возможности управления выделением памяти, упрощающие управление переменными, для которых память выделяется динамически.
    • Расширена поддержка атрибутов, определяющих распределение данных между устройствами по умолчанию.
    • Упрощено написание кода для асинхронной передачами данных дополнительным вычислительным устройствам (GPU).
    • Улучшено управление памятью и её привязкой к вычислительным устройствам.
    • Добавлена директива "groupprivate" для закрепления памяти за группой потоков, выполняемых на определённом вычислительном устройстве.
  • Упрощено программирование некоторых видов трансформации циклов, таких как объединение нескольких циклов, изменение порядка вложенных циклов и реверсия циклов.
  • Добавлена новая операция индукции (induction) для организации распараллеливания в циклах простых арифметических вычислений и пользовательских операций, зависящих от предыдущих значений.
  • Добавлена полная поддержка распараллеливания программ, написанных с использованием стандартов C23 (включая синтаксис атрибутов), Fortran 2023 и C++23. Добавлены новые атрибуты для C/C++.
  • Расширены возможности управления хранилищем и памятью. Добавлены новые атрибуты для контроля над тем, как должна выделяться и использоваться память. Добавлен API для определения и запроса пространств памяти (memory space).
  • Удалены возможности, объявленные устаревшими в спецификациях OpenMP 5.0, 5.1 и 5.2.


  1. Главная ссылка к новости (https://www.openmp.org/home-ne...)
  2. OpenNews: Опубликован стандарт параллельного программирования OpenMP 5.1
  3. OpenNews: Опубликован стандарт параллельного программирования OpenMP 5.0
  4. OpenNews: В Clang обеспечена полноценная поддержка OpenMP
  5. OpenNews: Утверждён стандарт POSIX 1003.1-2024
  6. OpenNews: Релиз PoCL 6.0 с независимой реализацией стандарта OpenCL
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/62236-openmp
Ключевые слова: openmp
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (10) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Аноним (1), 10:44, 15/11/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Существуют ли какие-то применения openmp на практике?
     
     
  • 2.4, Аноним (4), 11:12, 15/11/2024 [^] [^^] [^^^] [ответить]  
  • +/
    В Gentoo добавил, кроме всего прочего, в CFLAGS="... -fopenacc -fopenmp ..." Все собирается и работает без проблем.

    Увеличение производительности не тестировал.

     
     
  • 3.6, Аноним (1), 11:19, 15/11/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Увеличение производительности не тестировал.

    Было ли это увеличение, скорее там уменьшение.

    У меня  для фортрана так с надеждой на лучшее (а гфортран очень тормозной код генерирует в целом) FCFLAGS="${COMMON_FLAGS} -fopenmp -fprefetch-loop-arrays -fexternal-blas -fblas-matmul-limit=15"

    Наверно какие-то применения на суперкомпах можно найти, но вот есть ли преимущества обычного софта?

     
     
  • 4.8, Аноним (8), 11:43, 15/11/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Если в софте возможности OpenMP никак не использованы, то и пользы от добавления этих флагов никакой.
     
  • 2.9, Аноним (9), 11:47, 15/11/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Для консьюмерских приложений, вроде нет ничего современного...

    Проблема в архитектуре современных серверов. Сейчас нельзя просто так купить привычные для OpenMP SMP-систему, везде ccNUMA и всякие гетерогенные SoC.

    В этой ситуации сама концепция shared memory и модель fork-join летит псу под хвост.
    Да, безусловно OpenMP поддерживает NUMA в какой-то степени в какой-то из свежих спецификаций, что даёт понять приложению о топологии памяти (она же неравномерная).

    Вот только дальше начинается проблема с фиктивными ядрами на всяких современных amd64-процессорах. Ну знаете, когда в процессоре 48 "физических" ядер, а с DRAM-контроллером могут взаимодействовать только 12. При этом из них только 4 могут иметь один мультиплаер по частотам, а все остальные другой.

    То есть по идее можно все переписать на новые версии OpenMP, но кто бы это делал...
    Ну то есть масштабирование многопоточного приложения на системах с неравномерным доступом к памяти обычно требует реализации внутренненго планировщика, выполненного как супер-сервер. Таких реализаций на OpenMP я не знаю, возможно они есть, скиньте. Альтернатива - платформозависимые API для работы с потоками и процессами, которые умеют лучше и больше, но уже под конкретную ОС/планировщик.

    По-факту, никто не парится. Все эти высокопросизводительные многопоточные вычисления просто пихают в виртуалки, чтобы вышестоящая инфра разобралась со всем этим и выдала равномерную память UMA, где shared memory не деградирует за счёт того что часть тредов/физических устройств сидят за интерконнект-шинами.

     
  • 2.12, Анонимов (?), 12:09, 15/11/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Не особо.
    Раньше можно было выйграть пару циклов в расчетном по для суперкластеров в связке OpenMP+MPI (HybridPP), но в последние лет 10 особо голову сношать себе не хочет и используют чистый MPI.
     

  • 1.5, Аноним (5), 11:15, 15/11/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Извините, ничего производительнее, чем просто std::thread, мои эксперименты не нашли. Ни TBB, ни OpenMP.
     
     
  • 2.7, Анониматор (?), 11:26, 15/11/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Вряд ли оно имеет целью увеличение производительности. Скорее просто стандарт, чтоб программисту было легче пересаживаться с одного языка на другой
     
  • 2.10, Аноним (8), 11:47, 15/11/2024 [^] [^^] [^^^] [ответить]  
  • +/
    std::thread, само по себе, никак не задействует DSP, если он емеется, и/или GPU.
     
  • 2.11, Аноним (11), 12:07, 15/11/2024 [^] [^^] [^^^] [ответить]  
  • +/
    У него под капотом обычный pthread
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру