Обмен технологиями

Большая модель Шэнси. Использование MindFormers. Установка и настройка среды с нуля.

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

         

Целью пакета MindSpore Transformers является создание комплексного пакета разработки для обучения, точной настройки, оценки, вывода и развертывания больших моделей. Он предоставляет основные в отрасли модели предварительного обучения типа Transformer и приложения для последующих задач SOTA. охватывающий богатые параллельные функции. Мы надеемся помочь пользователям легко проводить обучение на крупных моделях, а также проводить инновационные исследования и разработки.

Пакет MindSpore Transformers основан на встроенной параллельной технологии и проектировании компонентов MindSpore и имеет следующие функции:

  • Одна строка кода обеспечивает плавный переход от обучения на одной карте к обучению на крупномасштабном кластере;
  • Обеспечить гибкую и простую в использовании персонализированную параллельную конфигурацию;
  • Возможность автоматического определения топологии и эффективной интеграции стратегий параллелизма данных и моделей параллелизма;
  • Запускайте процессы обучения, точной настройки, оценки и вывода для любой задачи с помощью одной или нескольких карт одним щелчком мыши;
  • Поддержка пользователей в настройке любого модуля в виде компонента, такого как оптимизатор, стратегия обучения, сетевая сборка и т. д.;
  • Предоставляет простые в использовании высокоуровневые интерфейсы, такие как Trainer, Pipeline и AutoClass;
  • Обеспечивает функции автоматической загрузки и загрузки предустановленных весов SOTA;
  • Поддержка плавной миграции и развертывания вычислительных центров искусственного интеллекта;

Платформа для больших моделей Mindspore (mindspore.cn)

Mindformers: Целью пакета MindSpore Transformers является создание полнофункционального пакета для обучения, вывода и развертывания больших моделей: предоставление основных в отрасли моделей предварительного обучения типа Transformer, охватывающих богатые параллельные функции. Мы надеемся помочь пользователям легко реализовать обучение больших моделей. Документация: https://mindformers.readthedocs.io/zh-cn/latest/ (gitee.com).

1. Установка

Сначала установите git в среде Linux Ubuntu

sudo apt install git

Приобретите майндформеры

git clone -b r1.1.0 https://gitee.com/mindspore/mindformers.git

Введите каталог для выполнения скрипта

cd mindformers
bash build.sh

Этот скрипт должен установить библиотеку Python setuptools и выполнить команду по ссылке.

Нет модуля с именем 'distutils.cmd_no module named 'distutils.cmd-CSDN博客

sudo apt-get install python3.7-distutils   3.7

Версия Python должна быть не ниже 3.7, рекомендую установить 3.9.

Ubuntu обновляет Python до версии 3.7_apt-get обновления блог python3.7-CSDN

python3

Введите «exit()», чтобы вернуться в обычный режим командной строки.

build.h может сообщить об ошибке. ОШИБКА: недопустимое требование: 'mindformers*whl'.

Измените питон в скрипте на python3.

Нажмите Esc и введите «:wq!», чтобы сохранить и выйти.

бежать снова

bash build.sh

Запустите успешно, и установка завершена.

Иногда требуются разные версии Python. Обратите внимание, что python3 отличается от python. Я помню, что это тоже можно настроить.

  1. whereis python3
  2. rm /usr/bin/python3
  3. ln -s /usr/bin/python3.9 /usr/bin/python3

Если это 3,9

sudo apt-get install python3.9-distutils   3.9