Официальный веб -сайт искренний высокопроизводительный вычисление современные системы и применения томашталлис суперкомпьютинг задач.
Вес товара: ~0.7 кг. Указан усредненный вес, который может отличаться от фактического. Не включен в цену, оплачивается при получении.
- Информация о товаре
- Фотографии
Основная информация | |
наименование товара: |   |
делать   |  &Миддот;&Миддот; |
город  поле  цена: |   149,00 Юань |
ISBN номер: | 9787111645795 |
Дата публикации: | 2020-03 |
Страница &Nbsp; номер: | 596 |
Характер &Nbsp; номер: |   |
вне   Общество: |   Machinery Industry Press |
Оглавление |
Переводчик Предисловие Предисловие Спасибо Глава 1 Введение 1 1.1 Дисциплина вычислений с высокой производительности 2 1.1.1 Определение 3 1.1.2 Приложение 3 1.1.3 производительность и индикаторы 3 1.1.4 Система расчетов с высоким уровнем эффективности 4 1.1.5 Суперкомпьютирующая проблема 6 1.1.6 Прикладное программирование 7 1.2 Влияние суперкомпьютинг на науку, общество и безопасность 8 1.2.1 Содействие обнаружению мошенничества и анализу рыночных данных 8 1.2.2 Обнаружение, управление и распределение нефти и природного газа 8 1.2.3 Ускорить инновации в производственной промышленности 9 1.2.4 Персонализированная медицина и открытие лекарств 9 1.2.5 Прогнозируют стихийные бедствия и понимать изменение климата 10 1.3 Супер компьютерный анализ 11 1.4 Производительность компьютера 13 1.4.1 Производительность 13 1.4.2 Пиковая производительность 13 1.4.3 Непрерывная производительность 14 1.4.4 Масштабируемость 15 1.4.5 Деградация производительности 15 1.4.6 Улучшение производительности 17 1.5 Super Comput Corte History 17 1.5.1 Первый этап— 18 1.5.2 второй этап—&Миддот; 19 1.5.3 Третий этап— 23 1.5.4 Четвертый этап— 24 1.5.5 Пятый этап— 27 1.5.6 Шестой этап— 27 1.5.7 Седьмая стадия— 30 1.5.8 Новый цифровой век и закон Мура 30 1.6 как руководство и инструмент студента 31 1.7 Резюме и результаты этой главы 32 1.8 Практика 33 Рекомендации 34 Глава 2 Архитектура HPC: система и технология 35 2.1 Введение 35 2.2 Ключевые особенности архитектуры HPC 36 2.2.1 Скорость 36 2.2.2 Параллелизм 36 2.2.3 Эффективность 37 2.2.4 Мощность 37 2.2.5 Надежность 38 2.2.6 Программируемое 38 2.3 Семья параллельной архитектуры— 39 2.4 Поддержка технологии 41 2.4.1 Техническая стадия 41 2.4.2 Роль технологии 44 2.4.3 Цифровая логика 45 2.4.4 Технология хранения 47 2.5 Feng Feng&Middot; 50 2.6 Вектор и сборочная линия 52 2.6.1 Filial Line Parallel 53 2.6.2 Векторная обработка 55 2.7 Одно инструкции Аура Формирование 56 2.7.1 ОДНА ИНСТРУКЦИЯ МУЛЬТИ -ДАТА архитектура 56 2.7.2 Amida Law 57 2.8 Multi -Processor 59 2.8.1 Общая ошибка многократная 60 2.8.2 Большой параллельный процессор масштаба 62 2.8.3 Система товарных кластеров 62 2.9 Доступная компьютерная структура 63 2.10 Сводка и результаты этой главы 64 2.11 Упражнение 65 Рекомендации 67 Глава 3 товарной кластер 68 3.1 Введение 68 3.1.1 Определение товарных кластеров 68 3.1.2 Мотивация и причины кластера 69 3.1.3 Кластерные элементы 70 3.1.4 Влияние на список лучших 500 70 3.1.5 Краткая история 71 3.1.6 Глава 73 3.2 Проект Beowulf Cluster 74 3.3 аппаратная архитектура 76 3.3.1 Узел 76 3.3.2 Системная сеть 77 3.3.3 Вспомогательное хранилище 78 3.3.4 Резюме коммерческой системы 78 3.4 Интерфейс программирования 78 3.4.1. 78 3.4.2 Режим параллельного программирования 80 3.5 Программная среда 80 3.5.1 Операционная система 80 3.5.2 Управление ресурсами 82 3.5.3 отладчик 83 3.5.4 Анализ производительности 84 3.5.5 Визуализация 85 3.6 Основной метод использования 86 3.6.1 Вход в систему 86 3.6.2 Пользовательская система и система каталогов 87 3.6.3 Конфигурация и конструкция пакета 92 3.6.4 Компилятор и компиляция 93 3.6.5 Запустите приложение 94 3.7 Резюме и результаты этой главы 94 3.8 Практика 95 Рекомендации 95 Глава 4 DatiMed Test Trowduce 97 4.1 Введение 97 4.2 Ключевые атрибуты программы теста HPC теста HPC 100 4.3 Стандартная эталонная процедура тестирования сообщества HPC 101 4.4 Высокий параллельный расчет Linpack 102 4,5 Стандартный тестовый комплект 4,5 HPC 104 4.6 Градиент с высокой производительности 106 4.7 Parallel Base Base Base Base Base Base Программа 110 4.8 Graph500 111 4.9 Небольшое заявление в качестве тестов. 115 4.10 Сводка и результаты этой главы 116 4.11 Практика 117 Рекомендации 118 Глава 5 Основы управления ресурсами 119 5.1 Управление ресурсами 119 5.2 Основа 123 5.2.1 Обзор архитектуры 123 5.2.2 Организация рабочей нагрузки 124 5.2.3 Планирование Slurm 125 5.2.4 Резюме команды Slurm 127 5.2.5 Скрипт рабочих мест 141 5.2.6 Slurm Quick Check Table 146 5.3 Portable Batch System Foundation 147 5.3.1 Обзор PBS 147 5.3.2 PBS Архитектура 148 5.3.3 148 5.3.4 Сценарий эксплуатации PBS 158 5.3.5 PBS быстрая проверка таблица 160 5.4 Резюме и результаты этой главы 161 5.5 Практика 162 Рекомендации 163 Глава 6 Симметрия многосторонняя архитектура 164 6.1 Введение 164 6.2 Обзор архитектуры 165 6.3 Amida Law 168 6.4 Архитектура ядра процессора 171 6.4.1 Выполнение сборочной линии 172 6.4.2 Параллель уровня инструкции Параллель 173 6.4.3 Прогноз филиала 173 6.4.4 Direct 174 6.4.5 Резервная станция 174 6.4.6 Multi -Thread 174 6.5 Уровень хранения 175 6.5.1 Повторное использование данных и местонахождение 175 6.5.2 Иерархическая структура хранения 176 6.5.3 Производительность системы хранения 178 6.6 PCI Bus 180 6.7 Внешний интерфейс ввода/вывода 184 6.7.1 Контроллер сетевого интерфейса 184 6.7.2 Приложение серийных передовых технологий 185 6.7.3 JTAG 187 6.7.4 GM Serial Services 189 6.8 Резюме и результаты этой главы 190 6.9 Практика 191 Рекомендации 192 Глава 7 Основы OpenMP 194 7.1 Введение 194 7.2 Обзор модели программирования OpenMP 195 7.2.1. Параллельно 195 7.2.2 Переменная потока 197 7.2.3. Запуск библиотечных и средств. 197 7.3 Параллельная нить и цикл 199 7.3.1 Параллельная нить 199 7.3.2 Частный 200 7.3.3 Параллель“for” 200 7.3.4 206 7.4 Синхронизация 208 7.4.1 Критические инструкции по синхронизации 208 7.4.2 Мастерская инструкция 209 7.4.3 Барьерная инструкция 210 7.4.4 Единственная инструкция 210 7,5 210 7.6 Сводка и результаты этой главы 212 7.7 Практика 213 Рекомендации 214 Глава 8 Основы MPI 215 8.1 Введение 215 8.2 Стандарт интерфейса передачи сообщений 216 8.3 Основные команды передачи интерфейса передачи сообщения 217 8.3.1 mpi.h 217 8.3.2 MPI_Init 217 8.3.3 MPI_Finalize 218 8.3.4 Пример интерфейса сообщения—Hello World 218 8.4 Коммуникатор 219 8.4.1 size 220 8.4.2 rank 220 8.4.3 случая 221 8.5 Сообщение о точечном сообщении 222 8.5.1 MPI отправка 222 8.5.2 Тип данных интерфейса передачи сообщений 222 8.5.3 Прием MPI 223 8.5.4 случая 223 8.6 Синхронная агрегация 225 8.6.1 Обзор вызова конверсии 225 8.6.2 Синхронизация заборов 225 8.6.3 случаев 226 8.7 Агрегация связи 227 8.7.1 Пластительное движение данных 228 8.7.2 трансляция 230 8.7.3 Раскрытие 231 8.7.4 Коллекция 233 8.7.5 Глобальная коллекция 234 8.7.6 Операция инвентаря 235 8.7.7 Global и Global 238 8.8 не -блокирующая точка -точка общения 240 8.9 Тип данных пользователя 242 8.10 Сводка и результаты этой главы 243 8.11 Упражнение 244 Рекомендации 244 Глава 9 Параллельный алгоритм 245 9.1 Введение 245 9.2 БИСПЛЕКТА 246 9,3 балла 247 9.4 Менеджер-работник 249 9,5 легко сделать 250 9.6 Halo Exchange 251 9.6.1 Используйте ограниченное дифференциальное уравнение плоского потока 251 9.6.2 Умножение вектора матрицы доставки 254 9.7 Замена: алгоритм канона 256 9.8 Поток данных задачи: приоритетный поиск широты 261 9.9 Резюме и результаты этой главы 263 9.10 Практика 263 Рекомендации 264 Глава 10 265 10.1 Введение 265 10.2 Линейная алгебра 267 10.2.1 Основные программы линейной алгебры 267 10.2.2 Пакет линейного капитала 273 10.2.3 Масштабируемый пакет линейных категорий 275 10.2.4 Научная библиотека GNU 276 10.2.5 Supernodal LU 276 10.2.6 Портативный масштабируемый пакет инструментов для научных вычислений 277 10.2.7 Библиотека масштабируемости, используемая для проблем с стоимостью функций 277 10,288 трлн -Доллар применяемые примененные значения функций, чтобы найти устройство решения 278 10.2.9 Hypre: Масштабируемое устройство линейного решения и множественные методы сетки 278 10.2.10 Специфический язык для области линейной алгебры 278 10.3 Частичное уравнение микро -дивизиона 280 10.4 Алгоритм диаграммы 281 10.5 Параллельный вход/вывод 281 10.6 Разложение сетки 288 10.7 Визуализация 289 10.8 Параллелизация 289 10.9 Обработка сигнала 289 10.10 Мониторинг производительности 290 10.11 Резюме и результаты этой главы 290 10.12 Упражнение 291 Рекомендации 292 Глава 11 Операционная система 294 11.1 Введение 294 11.2 Структура и обслуживание операционной системы 296 11.2.1 Системный компонент 296 11.2.2 Управление процессами 296 11.2.3 Управление памятью 296 11.2.4 Управление файлами 296 11.2.5 Управление системой ввода/вывода 297 11.2.6 Вспомогательное управление хранением 297 11.3 Управление процессами 297 11.3.1 Статус процесса 298 11.3.2 Блок управления процессом 299 11.3.3 деятельность по управлению процессами 300 11.3.4 отправка 301 11.4 302 11.5 Управление памятью 304 11.5.1 Виртуальная память 304 11.5.2 Адрес виртуальной страницы 304 11.5.3 Преобразование виртуального адреса 305 11.6 Сводка и результаты этой главы 306 11.7 Практика 307 Глава 12 Визуализация 308 12.1 Введение 308 12.2 Основная концепция визуализации 308 12.3 Gnuplot 310 12.4 Matplotlib 312 12.5 Visual Tool Package 316 12.6 ParaView 323 12.7 VisIt 323 12.8 Резюме и результаты этой главы 324 12.9 Упражнение 325 Рекомендации 325 Глава 13 Мониторинг производительности 326 13.1 Введение 326 13.2 Измерение времени 327 13.3 Анализ производительности 333 13.3.1 Важность анализа применения 333 13.3.2 Основы Gperftools 334 13.4 Мониторинг аппаратного мероприятия 339 13.4.1 perf 339 13.4.2 Интерфейс программного программирования производительности 344 13.5 Интегрированный комплект мониторинга производительности 347 13.6 Анализ в распределенной среде 350 13.7 Сводка и результаты этой главы 356 13.8 Практика 357 Рекомендации 358 Глава 14 отладка 360 14.1 Введение 360 14.2 Инструменты 362 14.2.1 GNU Debugger 362 14.2.2 Valgrind 370 14.2.3 Коммерческая версия Параллельная Tunner 370 14.3 Пример отладки: доступ к незащитным общим переменным. 372 14.4 Отладка MPI Пример: Dead Lock 373 14.5 логотип компилятора для отладки 378 14.6 Системный монитор, который помогает отладить 379 14.7 Резюме и результаты этой главы 381 14.8 Практика 381 Рекомендации 385 Глава 15 Архитектура акселератора 386 15.1 Введение 386 15.2 Краткая история 388 15.2.1 Совместный процессор 390 15.2.2 Ускоритель в пространстве ввода/вывода процессора 394 15.2.3 Существуют ускорители с отраслевыми стандартными интерфейсами 395 15.3 Введение в блок графической обработки 397 15.4 Эволюция функции графической обработки. 399 15.5 Современная архитектура графического процессора 403 15.5.1 Расчет архитектуры 403 15.5.2 Реализация памяти 406 15.5.3 Взаимосвязь 407 15.5.4 Программируемая среда 408 15.6 Архитектура гетерогенной системы 408 15.7 Сводка и результаты этой главы 410 15.8 Упражнение 410 Рекомендации 411 Глава 16 Основы OpenACC 412 16.1 Введение 412 16.1.1 CUDA 413 16.1.2 OpenCL 414 16.1.3 C++ AMP 414 16.1.4 OpenACC 415 16.2 Концепция программирования OpenACC 415 16.3 Звонок в библиотеку OpenACC 417 16.4 Переменные среды OpenACC 419 16.5 OpenACC Инструкция 420 16.5.1 Параллельная структура 420 16.5.2 Структура ядра 422 16.5.3 Управление данными 423 16.5.4 Планирование цикла 427 16.5.5 Диапазон переменных 429 16.5.6 Атомность 430 16.6 Сводка и результаты этой главы 431 16.7 Практика 432 Рекомендации 433 Глава 17 434 17.1 Введение 434 17.2 Краткая история хранения 437 17.3 Технология хранения оборудования 438 17.3.1 Драйвер жесткого диска 438 17.3.2 Сплошная жесткая дисковая память 444 17.3.3 лента 449 17.3.4 451 17.4 Концентрированное хранилище 456 17.4.1 Независимый диск избыточный массив 456 17.4.2 Сеть зоны хранения 462 17.4.3. 463 17.4.4 Третья память 464 17.5 Резюме и результаты этой главы 465 17.6 Практика 466 Рекомендации 466 Глава 18 Файловая система 468 18.1 Символ и функция файловой системы 468 18.2 Основы интерфейса файла posix 472 18.2.1 Системные вызовы обращаются к файлам 472 18.2.2 Файон Построить ввод -вывод 476 18.3 Сетевая файловая система 480 18.4 Общая параллельная файловая система 483 18.5 Файл -система Luster 487 18.6 Резюме и результаты этой главы 492 18.7 Практика 493 Рекомендации 494 Глава 19 MapReduce 495 19.1 Введение 495 19.2 Картирование и возврат 495 19.2.1 Подсчет слов 496 19.2.2 Общие соседи 497 19,2,3 К средней кластеризации 498 19.3 Распределенный расчет 499 19.4 Hadoop 500 19.5 Резюме и результаты этой главы 503 19.6 Упражнение 504 Рекомендации 504 Глава 20 Технология контрольных точек 505 20.1 Введение 505 20.2 Системная контрольная точка 505 20.3 Приложение -Level Checkpoint 511 20.4 Резюме и результаты этой главы 515 20.5 Практика 516 Рекомендации 516 Глава 21 Следующий шаг и будущее развитие 517 21.1 Введение 517 21.2 Расширенная модель параллельного программирования 518 21.2.1 Прогресс интерфейса передачи сообщений 518 21.2.2 Прогресс OpenMP 518 21.2.3 MPI+X 519 21.3 Расширенная архитектура расчетов с высокой эффективностью 519 21.3.1 Самая быстрая машина в мире 519 21.3.2 Легкая архитектура 519 21.3.3 В 520 21.4 E -Class расчет 521 21.4.1 Задача расчета E -Class 522 21.4.2 с математической точки зрения 523 21.4.3 Метод ускорения 523 21.4.4 Легкое ядро ядра 523 21.5 Асинхронная задача 524 21.5.1 Multi -Thread 524 21.5.2 Расчет диска сообщения 524 21.5.3 Глобальное адресное пространство 525 21.5.4 Синхронизация действий 526 21.5.5 Запуск системного программного обеспечения 526 21.6 Новый цифровой век 526 21.6.1 Поток данных 527 21.6.2 Юань -клеточная самостоятельная мотивация 529 21.6.3 Улучшение расчета нерва 530 21.6.4 Квантовой расчет 530 21,7 Упражнение 531 Рекомендации 531 Приложение A C -основы языка 532 Приложение B Linux Основа 547 |
краткое введение |
Содержание этой книги является всеобъемлющим и простым в изучении, не только охватывая основные концепции и знания о высоких вычислениях, но и обращают внимание на выращивание основных навыков.Читая эту книгу: исследователи узнают, как использовать суперкомпьютеры в качестве важного инструмента для новых знаний; Исследования и разработки подготовлены к карьере; |