minhas informações de contato
Correspondência[email protected]
2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
- Devido ao meu nível limitado, é inevitável que haja erros e omissões. Por favor, critique e corrija-os.
- Para conteúdo mais interessante, clique para entrarOperações diárias do PythonColuna,Pequeno aplicativo OpenCV-PythonColuna,Série YOLOColuna,processamento de linguagem naturalcoluna ou minhaPagina inicialVerificar
- Detecção de disfarce facial baseada em DETR
- YOLOv7 treina seu próprio conjunto de dados (detecção de máscara)
- YOLOv8 treina seu próprio conjunto de dados (detecção de futebol)
- YOLOv5: TensorRT acelera a inferência do modelo YOLOv5
- YOLOv5:IoU, GIoU, DIoU, CIoU, EIoU
- Brincando com Jetson Nano (5): TensorRT acelera a detecção de alvo YOLOv5
- YOLOv5: Adicionar mecanismo de atenção SE, CBAM, CoordAtt, ECA
- YOLOv5: Interpretação do arquivo de configuração yolov5s.yaml e adição de pequena camada de detecção de alvo
- Python converte conjunto de dados de segmentação de instância no formato COCO para conjunto de dados de segmentação de instância no formato YOLO
- YOLOv5: Use a versão 7.0 para treinar seu próprio modelo de segmentação de instância (segmentação de instância de veículos, pedestres, sinais de trânsito, linhas de faixa, etc.)
- Use os recursos da GPU Kaggle para experimentar o projeto de código aberto Stable Diffusion gratuitamente
- YOLOv10 foi construído por pesquisadores da Universidade de Tsinghua com base no pacote Ultralytics Python. Ele introduziu um novo método de detecção de alvos em tempo real e resolveu as deficiências de pós-processamento e arquitetura de modelo nas versões anteriores do YOLO. Ao eliminar a supressão não máxima (NMS) e otimizar vários componentes do modelo, o YOLOv10 atinge desempenho de última geração enquanto reduz significativamente a sobrecarga computacional. Extensos experimentos demonstram sua precisão superior e compensação de latência em múltiplas escalas de modelo.
- [1] Endereço do código-fonte YOLOv10:https://github.com/THU-MIG/yolov10.git
- [2] Endereço de papel YOLOv10:https://arxiv.org/abs/2405.14458
- Visão geral
O objetivo da detecção de objetos em tempo real é prever com precisão a categoria e a localização dos objetos em imagens com baixa latência. A série YOLO tem estado na vanguarda desta investigação devido ao seu equilíbrio entre desempenho e eficiência. No entanto, a dependência do NMS e as ineficiências arquitetônicas prejudicam o desempenho ideal. O YOLOv10 aborda esses problemas introduzindo tarefas duplas consistentes para treinamento sem nms e uma estratégia geral de design de modelo orientada para a eficiência e precisão.- Arquitetura
A arquitetura do YOLOv10 baseia-se nos pontos fortes dos modelos YOLO anteriores, ao mesmo tempo que introduz várias inovações importantes. A arquitetura do modelo consiste nos seguintes componentes:
- Backbone: O backbone no YOLOv10 é responsável pela extração de recursos, usando uma versão aprimorada do CSPNet (Cross Stage Partial Network) para melhorar o fluxo de gradiente e reduzir a redundância computacional.
- Pescoço: O pescoço é projetado para reunir características de diferentes escalas e transmiti-las à cabeça. Inclui uma camada PAN (Path Aggregation Network) para fusão eficaz de recursos em várias escalas.
- Cabeça um-para-muitos: Gera múltiplas previsões para cada objeto durante o processo de treinamento, fornecendo sinais de supervisão ricos e melhorando a precisão do aprendizado.
- Cabeça Um-para-Um: Gera a melhor previsão para cada objeto durante a inferência para eliminar a necessidade de NMS, reduzindo assim a latência e aumentando a eficiência.
- Características principais
- Treinamento sem NMS: aproveite a alocação dupla consistente para eliminar a necessidade de NMS e reduzir a latência de inferência.
- Projeto de modelo holístico: Cada componente é totalmente otimizado do ponto de vista de eficiência e precisão, incluindo cabeçote de classificação leve, redução de amostragem desacoplada de canal espacial e design de bloco guia de classificação.
- Recursos aprimorados do modelo: Combina convolução de núcleo grande e módulos de autoatenção parcial para melhorar o desempenho sem custos computacionais significativos.
- Variantes de modelo: YOLOv10 vem em uma variedade de modelos para atender a diferentes necessidades de aplicação:
- YOLOv10-N: Versão Nano para ambientes com recursos extremamente limitados.
- YOLOv10-S: A versão pequena equilibra velocidade e precisão.
- YOLOv10-M: Versão média para uso geral (adequado para diversos fins ou usos).
- YOLOv10-B: Versão balanceada com largura aumentada para maior precisão.
- YOLOv10-L: Versão grande para maior precisão ao custo de maiores recursos computacionais.
- YOLOv10-X: Versão extragrande para máxima precisão e desempenho.
- familiarPitão
torch==2.0.1
torchvision==0.15.2
onnx==1.14.0
onnxruntime==1.15.1
pycocotools==2.0.7
PyYAML==6.0.1
scipy==1.13.0
onnxsim==0.4.36
onnxruntime-gpu==1.18.0
gradio==4.31.5
opencv-python==4.9.0.80
psutil==5.9.8
py-cpuinfo==9.0.0
huggingface-hub==0.23.2
safetensors==0.4.3
pip install ultralytics
# 或者
pip install ultralytics -i https://pypi.tuna.tsinghua.edu.cn/simple # 国内清华源,下载速度更快
- Endereço do código-fonte YOLOv10:https://github.com/THU-MIG/yolov10.git
git clone https://github.com/THU-MIG/yolov10.git
cd yolov10
# conda create -n yolov10 python=3.9
# conda activate yolov10
pip install -r requirements.txt
pip install -e .
Cloning into 'yolov10'...
remote: Enumerating objects: 4583, done.
remote: Counting objects: 100% (4583/4583), done.
remote: Compressing objects: 100% (1270/1270), done.
remote: Total 4583 (delta 2981), reused 4576 (delta 2979), pack-reused 0
Receiving objects: 100% (4583/4583), 23.95 MiB | 1.55 MiB/s, done.
Resolving deltas: 100% (2981/2981), done.
por favor venha
https://github.com/THU-MIG/yolov10.git
Baixe o pacote zip do código-fonte do site.
cd yolov10
# conda create -n yolov10 python=3.9
# conda activate yolov10
pip install -r requirements.txt
pip install -e .
O conjunto de dados usado neste artigo é gratuitoLink para Download:https://download.csdn.net/download/FriendshipTang/88045378
yolo detect train data=../datasets/Road_Sign_VOC_and_YOLO_datasets/road_sign.yaml model=yolov10n.yaml epochs=100 batch=4 imgsz=640 device=0
yolo predict model=runsdetecttrain4weightsbest.pt source=E:/mytest/datasets/Road_Sign_VOC_and_YOLO_datasets/testset/images
yolo detect val data=../datasets/Road_Sign_VOC_and_YOLO_datasets/road_sign.yaml model=runsdetecttrain4weightsbest.pt batch=4 imgsz=640 device=0
[1] Endereço do código-fonte YOLOv10:https://github.com/THU-MIG/yolov10.git
[2] Endereço de papel YOLOv10:https://arxiv.org/abs/2405.14458
- Devido ao meu nível limitado, é inevitável que haja erros e omissões. Por favor, critique e corrija-os.
- Para conteúdo mais interessante, clique para entrarOperações diárias do PythonColuna,Pequeno aplicativo OpenCV-PythonColuna,Série YOLOColuna,processamento de linguagem naturalcoluna ou minhaPagina inicialVerificar
- Detecção de disfarce facial baseada em DETR
- YOLOv7 treina seu próprio conjunto de dados (detecção de máscara)
- YOLOv8 treina seu próprio conjunto de dados (detecção de futebol)
- YOLOv5: TensorRT acelera a inferência do modelo YOLOv5
- YOLOv5:IoU, GIoU, DIoU, CIoU, EIoU
- Brincando com Jetson Nano (5): TensorRT acelera a detecção de alvo YOLOv5
- YOLOv5: Adicionar mecanismo de atenção SE, CBAM, CoordAtt, ECA
- YOLOv5: Interpretação do arquivo de configuração yolov5s.yaml e adição de pequena camada de detecção de alvo
- Python converte conjunto de dados de segmentação de instância no formato COCO para conjunto de dados de segmentação de instância no formato YOLO
- YOLOv5: Use a versão 7.0 para treinar seu próprio modelo de segmentação de instância (segmentação de instância de veículos, pedestres, sinais de trânsito, linhas de faixa, etc.)
- Use os recursos da GPU Kaggle para experimentar o projeto de código aberto Stable Diffusion gratuitamente