Compartir tecnología

Shengsi Large Model - Uso de MindFormers - Instalar y configurar el entorno desde cero

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

         

El objetivo de la suite MindSpore Transformers es crear una suite de desarrollo de proceso completo para entrenamiento, ajuste, evaluación, inferencia e implementación de modelos grandes. Proporciona los principales modelos de preentrenamiento tipo Transformer y aplicaciones de tareas posteriores SOTA de la industria. cubriendo ricas características paralelas. Esperamos ayudar a los usuarios a lograr fácilmente una capacitación en modelos grandes y una investigación y desarrollo innovadores.

La suite MindSpore Transformers se basa en la tecnología paralela integrada y el diseño de componentes de MindSpore y tiene las siguientes características:

  • Una línea de código permite pasar sin problemas de la capacitación con una sola tarjeta a la capacitación en clústeres a gran escala;
  • Proporcionar una configuración paralela personalizada, flexible y fácil de usar;
  • Capaz de realizar automáticamente el conocimiento de la topología e integrar eficientemente el paralelismo de datos y las estrategias de paralelismo de modelos;
  • Inicie procesos de capacitación, ajuste, evaluación e inferencia con una sola tarjeta o varias tarjetas para cualquier tarea con un solo clic;
  • Apoyar a los usuarios para configurar cualquier módulo en forma de componente, como optimizador, estrategia de aprendizaje, ensamblaje de red, etc.;
  • Proporciona interfaces de alto nivel fáciles de usar, como Trainer, Pipeline y AutoClass;
  • Proporciona funciones automáticas de descarga y carga de pesos SOTA preestablecidos;
  • Apoyar la migración y el despliegue fluidos de centros informáticos de inteligencia artificial;

Plataforma de modelo grande Shengsi (mindspore.cn)

mindformers: El objetivo de la suite MindSpore Transformers es crear una suite de proceso completo para el entrenamiento, la inferencia y la implementación de modelos grandes: proporcionar los principales modelos de preentrenamiento tipo Transformer de la industria, que cubren ricas características paralelas. Esperamos ayudar a los usuarios a implementar fácilmente la capacitación en modelos grandes. Documentación: https://mindformers.readthedocs.io/zh-cn/latest/ (gitee.com)

1. Instalación

Instale git primero en el entorno Linux Ubuntu

sudo apt install git

Consigue formadores de mentes

git clone -b r1.1.0 https://gitee.com/mindspore/mindformers.git

Ingrese el directorio para ejecutar el script

cd mindformers
bash build.sh

Este script necesita instalar la biblioteca de herramientas de configuración de Python y ejecutar el comando en el enlace

No hay ningún módulo llamado 'distutils.cmd_no hay ningún módulo llamado 'distutils.cmd-CSDN博客

sudo apt-get install python3.7-distutils   3.7

La versión de Python debe ser al menos 3.7, recomiendo instalar 3.9

Ubuntu actualiza Python a 3.7_apt-obtener actualizaciones blog python3.7-CSDN

python3

Escriba "exit()" para volver al modo de línea de comando normal

build.h puede informar un error ERROR: Requisito no válido: 'mindformers*whl'

Cambie Python en el script a Python3

Presione Esc y escriba ":wq!" para guardar y salir.

corre de nuevo

bash build.sh

Ejecute correctamente y la instalación estará completa.

A veces se necesitan diferentes versiones de Python. Tenga en cuenta que python3 es diferente de python. Recuerdo que también es configurable.

  1. whereis python3
  2. rm /usr/bin/python3
  3. ln -s /usr/bin/python3.9 /usr/bin/python3

si es 3.9

sudo apt-get install python3.9-distutils   3.9