Анализируются вопросы моделирования и расчета вычислительных распределенных систем. Для моделирования используется метод «Network calculus» базирующийся на мини (макси) плюс алгебре. Основное внимание уделено вычислительным системам с неравным на большом масштабе времени объемом принимаемых и передаваемых компонентом данных. Предложено использовать обобщенное преобразование Лежандра для расчета конверта выходного потока системы. Приведены примеры моделирования вычислительной системы с суммированием двух потоков, где основной поток имеет вид T-SPEC и моделирования фрагмента вычислительной системы с линейным преобразованием потока и пакетированием.