Вид деятельности | Публичный |
---|---|
Доступно в | немецкий |
Основан | 1985 |
Штаб-квартира | , |
Обслуживаемая территория | Северная Америка , Южная Америка , Европа , Азиатско-Тихоокеанский регион |
Основатель(и) | Фальк-Дитрих Кюблер, Герхард Пайзе, Бернд Вольф |
Услуги | Системы контроля поверхности |
URL | http://www.parsytec.de |
Isra Vision Parsytec AG , дочерняя компания Isra Vision , была первоначально основана в 1985 году как Parsytec ( технология параллельных систем ) в Ахене , Германия.
Parsytec получила признание в конце 1980-х и начале 1990-х годов как производитель параллельных систем на основе транспьютеров . Линейка ее продукции варьировалась от отдельных плат- транспьютеров для IBM PC до больших, массивно-параллельных систем с тысячами транспьютеров (или процессоров), таких как Parsytec GC. Некоторые источники описывают последние как масштабируемые мультикомпьютеры (smC) размером с ультракомпьютер. [1] [2]
В рамках ISRA VISION AG компания теперь фокусируется на секторах машинного зрения и промышленной обработки изображений. Продукция ISRA Parsytec в основном используется для контроля качества и поверхности, особенно в металлургической и бумажной промышленности.
Компания Parsytec была основана в 1985 году в Аахене , Германия, Фальком-Дитрихом Кюблером, Герхардом Х. Пайзе и Берндом Вольфом при гранте в размере 800 000 немецких марок от Федерального министерства исследований и технологий (BMFT) . [3]
В отличие от SUPRENUM , Parsytec сосредоточила свои системы, особенно в области распознавания образов , на промышленных приложениях, таких как поверхностный контроль. В результате компания не только захватила значительную долю рынка в европейской академии, но и привлекла многочисленных промышленных клиентов, в том числе многих за пределами Германии . К 1988 году экспорт составил примерно треть дохода Parsytec. Показатели оборота компании были следующими: ноль в 1985 году, 1,5 миллиона немецких марок в 1986 году, 5,2 миллиона немецких марок в 1988 году, 9 миллионов немецких марок в 1989 году, 15 миллионов немецких марок в 1990 году и 17 миллионов долларов США в 1991 году.
Чтобы позволить Parsytec сосредоточиться на исследованиях и разработках, была создана отдельная организация ParaCom, которая занималась продажами и маркетинговыми операциями. Хотя Parsytec/ParaCom сохранила свою штаб-квартиру в Аахене , Германия, она также управляла дочерними офисами продаж в Хемнице (Германия), Саутгемптоне (Великобритания), Чикаго (США), Санкт-Петербурге (Россия) и Москве (Россия). [4] В Японии машины Parsytec распространяла компания Matsushita . [3]
В период с 1988 по 1994 год Parsytec разработал впечатляющий ряд транспьютерных компьютеров, кульминацией которых стал "Parsytec GC" (GigaCluster). Эта система была доступна в конфигурациях от 64 до 16 384 транспьютерных компьютеров . [5]
В середине 1999 года компания Parsytec вышла на биржу, проведя первичное публичное размещение акций ( IPO ) на Немецкой фондовой бирже во Франкфурте .
30 апреля 2006 года основатель Фальк-Д. Кюблер покинул компанию. [6]
В июле 2007 года [7] ISRA VISION AG приобрела 52,6% акций Parsytec AG. [8] Исключение акций Parsytec из листинга на фондовой бирже началось в декабре того же года, а с 18 апреля 2008 года акции Parsytec больше не котируются на фондовой бирже. [9]
В то время как в начале 1990-х годов в Parsytec работало около 130 человек, в 2012/2013 годах в группе ISRA VISION работало более 500 человек. [10]
Сегодня основным направлением деятельности ISRA Parsytec в составе группы ISRA VISION является разработка и распространение систем контроля поверхности полосовой продукции в металлургической и бумажной промышленности.
Ассортимент продукции Parsytec включает:
Всего было отгружено около 700 автономных систем (SC и GC).
Первоначально Parsytec участвовал в проекте GPMIMD (General Purpose MIMD ) [11] под эгидой программы ESPRIT [12] , оба из которых финансировались Директоратом Европейской комиссии по науке . Однако после существенных разногласий с другими участниками — Meiko , Parsys, Inmos и Telmat — относительно выбора общей физической архитектуры, Parsytec покинул проект и анонсировал собственную машину на базе T9000 , GC. Из-за проблем Inmos с T9000 , Parsytec был вынужден перейти на систему, использующую комбинацию процессоров Motorola MPC 601 и процессоров Inmos T805 . Это привело к разработке «гибридных» систем Parsytec (например, GC/PP), в которых транспьютеры использовались в качестве коммуникационных процессоров, в то время как вычислительные задачи выгружались на PowerPC .
Кластерные системы Parsytec управлялись внешней рабочей станцией, обычно рабочей станцией SUN (например, Sun-4 ). [13]
Существует значительная путаница в названиях продуктов Parsytec. Это отчасти связано с архитектурой, но также и с вышеупомянутой недоступностью Inmos T9000 , что заставило Parsytec использовать вместо них процессоры T805 и PowerPC . Системы, оснащенные процессорами PowerPC, получили префикс «Power».
Архитектура систем GC основана на автономных GigaCubes. Базовым архитектурным элементом системы Parsytec был кластер, который состоял, среди прочих компонентов, из четырех транспьютеров/процессоров (т.е. кластер — это узел в классическом смысле).
GigaCube (иногда называемый суперузлом или меганодом) [14] состоял из четырех кластеров (узлов), каждый из которых имел 16 транспьютеров Inmos T805 (30 МГц), оперативную память (до 4 МБ на T805 ) и дополнительный избыточный T805 (17-й процессор). Он также включал локальные соединения и четыре маршрутизирующих чипа Inmos C004. Аппаратная отказоустойчивость достигалась путем присоединения каждого T805 к другому C004. [15] Необычное написание x'plorer привело к появлению таких вариаций, как xPlorer, а Gigacluster иногда называют GigaCube или Grand Challenge.
Megaframe [16] [17] было названием продукта для семейства модулей параллельной обработки на основе транспьютеров, [18] некоторые из которых могли использоваться для модернизации IBM PC . [19] Как автономная система, Megaframe мог вмещать до десяти процессорных модулей. Были доступны различные версии модулей, например, один с 32-битным транспьютером T414 с аппаратным обеспечением для работы с плавающей точкой ( Motorola 68881 ), 1 МБ ОЗУ (время доступа 80 наносекунд) и пропускной способностью 10 MIPS, или один с четырьмя 16-битными транспьютерами ( T22x ) с 64 КБ ОЗУ. Кроме того, предлагались карты для специальных функций, включая графический процессор с разрешением 1280 x 1024 пикселей и «кластер» ввода-вывода с интерфейсами терминала и SCSI . [ 20]
Серия MultiCluster -1 состояла из статически конфигурируемых систем, которые могли быть адаптированы к конкретным требованиям пользователя, таким как количество процессоров, объем памяти, конфигурация ввода-вывода и топология системы. Требуемая топология процессора могла быть настроена с помощью соединений UniLink, подаваемых через специальную объединительную плату. Кроме того, были предусмотрены четыре внешних разъема.
Multicluster-2 использовал сетевые конфигурационные блоки (NCU), которые обеспечивали гибкие, динамически настраиваемые сети взаимосвязей. Многопользовательская среда могла поддерживать до восьми пользователей с помощью программного обеспечения Parsytec для множественной виртуальной архитектуры. Конструкция NCU была основана на коммутаторе Inmos crossbar, C004, который обеспечивает полное перекрестное подключение для 16 транспьютеров. Каждый NCU, состоящий из C004, подключал до 96 UniLink, связывая внутренние и внешние транспьютеры и другие подсистемы ввода-вывода. MultiCluster-2 позволял конфигурировать различные фиксированные топологии взаимосвязей, такие как древовидные или сетчатые структуры. [14]
SuperCluster [21] имел иерархическую, кластерную конструкцию. Базовым блоком был 16-транспьютерный T800 , полностью связанный кластер, а более крупные системы включали дополнительные уровни NCU для формирования необходимых соединений. Программное обеспечение Network Configuration Manager (NCM) управляло NCU и динамически устанавливало требуемые соединения. Каждый транспьютер мог быть оснащен от 1 до 32 МБ динамической оперативной памяти с коррекцией одиночных ошибок и обнаружением двойных ошибок. [14]
GigaCluster (GC) — параллельный компьютер , созданный в начале 1990-х годов. GigaCluster состоял из GigaCubes. [22]
Разработанный для транспьютеров Inmos T9000 , GigaCluster так и не смог быть запущен, как изначально планировалось, поскольку транспьютеры Inmos T9000 так и не вышли на рынок вовремя. Это привело к разработке GC/PP (PowerPlus), в котором два Motorola MPC 601 (80 МГц) использовались в качестве выделенных ЦП , поддерживаемых четырьмя транспьютерами Inmos T805 (30 МГц). [23]
В то время как GC/PP была гибридной системой, GC el («начальный уровень») был основан исключительно на T805 . [24] [25] GC el был разработан с возможностью модернизации до транспьютеров T9000 (если бы они появились вовремя), таким образом становясь полноценным GC. Поскольку T9000 был эволюционным преемником T800 от Inmos , модернизация планировалась простой и понятной. Это было связано с тем, что, во-первых, оба транспьютера использовали один и тот же набор инструкций, а во-вторых, у них было схожее соотношение производительности вычислительной мощности к пропускной способности связи. Ожидался теоретический коэффициент ускорения в 10 раз, [22] но в итоге он так и не был достигнут.
Сетевая структура GC представляла собой двумерную решетку со скоростью обмена данными между узлами (т.е. кластерами в терминологии Parsytec) 20 Мбит/с. Для своего времени концепция GC была исключительно модульной и масштабируемой.
Так называемый GigaCube был модулем, который уже был системой с одним гигафлопом и служил строительным блоком для более крупных систем. Модуль (или «куб» в терминологии Parsytec) содержал:
Объединяя модули (или кубы, соответственно), теоретически можно соединить до 16 384 процессоров, чтобы создать очень мощную систему.
Типичные установки включают:
Система | Количество процессоров | Количество GigaCube |
---|---|---|
ГЦ-1 | 64 | 1 |
ГЦ-2 | 256 | 4 |
ГЦ-3 | 1024 | 16 |
ГЦ-4 | 4096 | 48 |
ГЦ-5 | 16384 | 256 |
Две самые крупные установки GC, которые были фактически отправлены, имели 1024 процессора (16 модулей, с 64 транспьютерами на модуль) и работали в центрах обработки данных университетов Кельна и Падерборна. В октябре 2004 года система в Падерборне была переведена в музейный форум Хайнца Никсдорфа [26] , где она сейчас неработоспособна.
Потребляемая мощность системы с 1024 процессорами составляла около 27 кВт, а ее вес — почти тонну. В 1992 году система стоила около 1,5 млн немецких марок . В то время как меньшие версии, вплоть до GC-3, имели воздушное охлаждение, для более крупных систем обязательно было водяное охлаждение.
В 1992 году GC с 1024 процессорами вошел в список TOP500 [27] самых быстрых суперкомпьютерных установок в мире. Только в Германии это был 22-й по скорости компьютер.
В 1995 году в списке TOP500 было девять компьютеров Parsytec, включая две установки GC/PP 192, которые занимали 117-е и 188-е места. [28]
В 1996 году они все еще занимали 230-е и 231-е места в списке TOP500. [29] [30]
Модель x'plorer выпускалась в двух версиях: первоначальная версия имела 16 транспьютеров , каждый из которых имел доступ к 4 МБ ОЗУ , и называлась x'plorer. Позже, когда Parsytec перешел на архитектуру PPC , она была переименована в POWERx'plorer и имела 8 процессоров MPC 601. Обе модели размещались в одном и том же настольном корпусе, разработанном Via 4 Design. [31]
В любой модели x'plorer был по сути одним "срезом" — который Parsytec называл кластером [32] — GigaCube (PPC или Transputer), с наименьшей версией (GC-1), использующей 4 таких кластера. В результате некоторые называли его "GC-0.25." [33]
POWERx'plorer был основан на 8 процессорных блоках, расположенных в 2D-сетке. Каждый процессорный блок включал:
Система Parsytec CC (когнитивный компьютер) [35] [36] [37] представляла собой автономное устройство на уровне стойки для карт.
Подсистема стойки CC-карты обеспечивала систему инфраструктурой, включая электропитание и охлаждение. Система могла быть сконфигурирована как стандартный 19-дюймовый стоечный блок, который принимал различные подключаемые модули 6U.
Система CC [38] представляла собой параллельный компьютер с распределенной памятью и передачей сообщений и во всем мире классифицируется как MIMD- категория параллельных компьютеров.
Существовали две различные версии:
Во всех системах CC узлы были напрямую подключены к одному и тому же маршрутизатору, который реализовал активный аппаратный перекрестный коммутатор 8x8 для 8 подключений с использованием высокоскоростного канала 40 Мбит/с.
Что касается CCe, программное обеспечение было основано на операционной системе IBM AIX 4.1 UNIX, а также на среде параллельного программирования Embedded PARIX (EPX) компании Parsytec. [40] Эта установка объединяла стандартную среду UNIX (включая компиляторы, инструменты и библиотеки) с передовой средой разработки программного обеспечения. Система была интегрирована в локальную сеть с использованием стандартного Ethernet. В результате узел CC имел пиковую производительность 266 MFLOPS. Пиковая производительность 8-узловой системы CC, установленной в Женевской университетской больнице, составила 2,1 GFLOPS . [41]
Powermouse была еще одной масштабируемой системой, состоящей из модулей и отдельных компонентов. Это было прямое расширение системы x'plorer. [39] Каждый модуль (размеры: 9 см x 21 см x 45 см) содержал четыре процессора MPC 604 (200/300 МГц) и 64 МБ ОЗУ , достигая пиковой производительности 2,4 ГФЛОПС. Отдельный коммуникационный процессор ( T425 ), оснащенный 4 МБ ОЗУ [42], управлял потоком данных в четырех направлениях к другим модулям в системе. Пропускная способность одного узла составляла 9 МБ/с.
За 35 000 немецких марок базовая система, состоящая из 16 ЦП (т. е. четырех модулей), могла обеспечить общую вычислительную мощность 9,6 Гфлоп/с. Как и для всех продуктов Parsytec, Powermouse требовала Sun Sparcstation в качестве front-end.
Было включено все программное обеспечение, включая PARIX с компиляторами и отладчиками C++ и Fortran 77 (альтернативно предоставляющими MPI или PVM в качестве пользовательских интерфейсов). [43]
Использовалась операционная система PARIX (PARallel UnIX extensions) [44] — PARIX T8 для транспьютеров T80x и PARIX T9 для транспьютеров T9000 соответственно. Основанная на UNIX , PARIX [45] поддерживала удаленные вызовы процедур и соответствовала стандарту POSIX . PARIX предоставляла функциональность UNIX на внешнем интерфейсе (например, Sun SPARCstation , которую нужно было приобретать отдельно) с библиотечными расширениями для нужд параллельной системы на внутреннем интерфейсе, которая представляла собой сам продукт Parsytec (подключенный к внешнему интерфейсу для работы). Пакет программного обеспечения PARIX включал компоненты для среды разработки программ (компиляторы, инструменты и т. д.) и среды выполнения (библиотеки). PARIX предлагала различные типы синхронной и асинхронной связи.
Кроме того, Parsytec предоставила среду параллельного программирования под названием Embedded PARIX (EPX). [40]
Для разработки параллельных приложений с использованием EPX потоки данных и функциональные задачи были выделены для сети узлов. Обработка данных между процессорами требовала всего нескольких системных вызовов. Были доступны стандартные процедуры для синхронной связи, такие как отправка и получение, а также асинхронные системные вызовы. Полный набор вызовов EPX сформировал интерфейс программирования приложений EPX ( API ). Место назначения для любой передачи сообщений определялось через виртуальный канал, который заканчивался в любом определенном пользователем процессе. Виртуальные каналы управлялись EPX и могли быть определены пользователем. Фактическая система доставки сообщений использовала маршрутизатор. [41] Кроме того, на машинах также можно было запускать COSY (Concurrent Operating SYstem) [46] и Helios . Helios поддерживал специальный механизм сброса Parsytec из коробки.