Condivisione della tecnologia

Shengsi Large Model - Utilizzo di MindFormers - Installa e configura l'ambiente da zero

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

         

L'obiettivo della suite MindSpore Transformers è creare una suite di sviluppo a processo completo per l'addestramento, la messa a punto, la valutazione, l'inferenza e l'implementazione di modelli di grandi dimensioni. Fornisce i principali modelli di pre-addestramento di tipo Transformer del settore e le applicazioni di attività downstream SOTA. che copre ricche funzionalità parallele. Ci auguriamo di aiutare gli utenti a ottenere facilmente una formazione su modelli di grandi dimensioni e attività di ricerca e sviluppo innovative.

La suite MindSpore Transformers si basa sulla tecnologia parallela integrata e sulla progettazione dei componenti di MindSpore e presenta le seguenti funzionalità:

  • Una riga di codice consente il passaggio senza interruzioni dalla formazione su scheda singola all'addestramento su cluster su larga scala;
  • Fornire una configurazione parallela personalizzata flessibile e facile da usare;
  • In grado di eseguire automaticamente la consapevolezza della topologia e di integrare in modo efficiente il parallelismo dei dati e le strategie di parallelismo dei modelli;
  • Avvia processi di formazione, messa a punto, valutazione e inferenza su una o più carte con un solo clic;
  • Supportare gli utenti nella configurazione di qualsiasi modulo sotto forma di componente, come ottimizzatore, strategia di apprendimento, assemblaggio di rete, ecc.;
  • Fornisce interfacce di alto livello facili da usare come Trainer, pipeline e AutoClass;
  • Fornisce funzioni di download e caricamento automatico dei pesi SOTA preimpostati;
  • Supportare la migrazione e l’implementazione senza soluzione di continuità dei centri di calcolo dell’intelligenza artificiale;

Piattaforma per modelli di grandi dimensioni Mindspore (mindspore.cn)

mindformers: l'obiettivo della suite MindSpore Transformers è creare una suite completa di processi per l'addestramento, l'inferenza e l'implementazione di modelli di grandi dimensioni: fornire i principali modelli di pre-addestramento di tipo Transformer del settore, coprendo ricche funzionalità parallele. Ci auguriamo di aiutare gli utenti a implementare facilmente la formazione su modelli di grandi dimensioni. Documentazione: https://mindformers.readthedocs.io/zh-cn/latest/ (gitee.com)

1. Installazione

Installa prima git nell'ambiente Linux Ubuntu

sudo apt install git

Ottieni dei formatori di mente

git clone -b r1.1.0 https://gitee.com/mindspore/mindformers.git

Immettere la directory per eseguire lo script

cd mindformers
bash build.sh

Questo script deve installare la libreria python setuptools ed eseguire il comando nel collegamento

Nessun modulo denominato 'distutils.cmd_no modulo denominato 'distutils.cmd-CSDN博客

sudo apt-get install python3.7-distutils   3.7

La versione di Python deve essere almeno la 3.7, consiglio di installare la 3.9

Ubuntu aggiorna Python a 3.7_apt-get update python3.7-CSDN blog

python3

Digitare "exit()" per tornare alla normale modalità della riga di comando

build.h potrebbe segnalare un errore ERRORE: requisito non valido: 'mindformers*whl'

Cambia Python nello script in python3

Premi Esc e digita ":wq!" per salvare ed uscire.

esegui di nuovo

bash build.sh

Esegui correttamente e l'installazione è completa.

A volte sono necessarie versioni diverse di Python. Nota che python3 è diverso da python. Ricordo che è anche configurabile.

  1. whereis python3
  2. rm /usr/bin/python3
  3. ln -s /usr/bin/python3.9 /usr/bin/python3

Se è 3.9

sudo apt-get install python3.9-distutils   3.9