minhas informações de contato
Correspondência[email protected]
2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Web Scraper é uma ferramenta que extrai automaticamente dados de sites. Eles são amplamente utilizados na coleta de dados, otimização de mecanismos de pesquisa, pesquisas de mercado e outros campos. Este artigo apresentará em detalhes como usar o Go 1.19 para implementar uma ferramenta simplificada e automatizada de rastreamento de modelos de site para ajudar os desenvolvedores a coletar dados com eficiência.
Antes de começar, certifique-se de ter o Go 1.19 instalado em seu sistema. Você pode verificar a versão Go com o seguinte comando:
go version
Se você ainda não instalou o Go, você pode baixá-lo em Acesse o site oficial Baixe e instale a versão mais recente.
O fluxo de trabalho básico de um rastreador da web é o seguinte:
Na linguagem Go, existem várias estruturas de rastreadores populares, como:
Este artigo usará principalmente Colly e Goquery para rastreamento da web e análise de conteúdo.
Projetaremos uma ferramenta simplificada de rastreamento automatizado de modelos de site. O processo básico é o seguinte:
Primeiro, crie um novo projeto Go:
mkdir go_scraper
cd go_scraper
go mod init go_scraper
Em seguida, instale Colly e Goquery:
go get -u github.com/gocolly/colly
go get -u github.com/PuerkitoBio/goquery
A seguir, escreva um rastreador simples para rastrear conteúdo da web:
package main
import (
"fmt"
"github.com/gocolly/colly"
)
func main() {
// 创建一个新的爬虫实例
c := colly.NewCollector()
// 设置请求时的回调函数
c.OnRequest(func(r *colly.Request) {
fmt.Println("Visiting", r.URL.String())
})
// 设置响应时的回调函数
c.OnResponse(func(r *colly.Response) {
fmt.Println("Visited", r.Request.URL)
fmt.Println("Response:", string(r.Body))
})
// 设置错误处理的回调函数
c.OnError(func(r *colly.Response, err error) {
fmt.Println("Error:", err)
})
// 设置HTML解析时的回调函数
c.OnHTML("title", func(e *colly.HTMLElement) {
fmt.Println("Title:", e.Text)
})
// 开始爬取
c.Visit("http://example.com")
}
A execução do código acima rastreará o conteúdo de http://example.com e imprimirá o título da página.
Para extrair os dados necessários da página web, precisamos usar Goquery para analisar o conteúdo HTML. O exemplo a seguir mostra como usar Goquery para extrair links e texto de uma página web:
package main
import (
"fmt"
"github.com/gocolly/colly"
"github.com/PuerkitoBio/goquery"
)
func main() {
c := colly.NewCollector()
c.OnHTML("body", func(e *colly.HTMLElement) {
e.DOM.Find("a").Each(func(index int, item *goquery.Selection) {
link, _ := item.Attr("href")
text := item.Text()
fmt.Printf("Link #%d: %s (%s)n", index, text, link)
})
})
c.Visit("http://example.com")
}
Para melhorar a eficiência do rastreador, podemos usar a função de simultaneidade de Colly:
package main
import (
"fmt"
"github.com/gocolly/colly"
"github.com/PuerkitoBio/goquery"
"log"
"time"
)
func main() {
c := colly.NewCollector(
colly.Async(true), // 启用异步模式
)
c.Limit(&colly.LimitRule{
DomainGlob: "*",
Parallelism: 2, // 设置并发数
Delay: 2 * time.Second,
})
c.OnHTML("body", func(e *colly.HTMLElement) {
e.DOM.Find("a").Each(func(index int, item *goquery.Selection) {
link, _ := item.Attr("href")
text := item.Text()
fmt.Printf("Link #%d: %s (%s)n", index, text, link)
c.Visit(e.Request.AbsoluteURL(link))
})
})
c.OnRequest(func(r *colly.Request) {
fmt.Println("Visiting", r.URL.String())
})
c.OnError(func(r *colly.Response, err error) {
log.Println("Error:", err)
})
c.Visit("http://example.com")
c.Wait() // 等待所有异步任务完成
}
Salve os dados capturados em um arquivo ou banco de dados local. Aqui está um arquivo CSV como exemplo:
package main
import (
"encoding/csv"
"fmt"
"github.com/gocolly/colly"
"github.com/PuerkitoBio/goquery"
"log"
"os"
"time"
)
func main() {
file, err := os.Create("data.csv")
if err != nil {
log.Fatalf("could not create file: %v", err)
}
defer file.Close()
writer := csv.NewWriter(file)
defer writer.Flush()
c := colly.NewCollector(
colly.Async(true),
)
c.Limit(&colly.LimitRule{
DomainGlob: "*",
Parallelism: 2,
Delay: 2 * time.Second,
})
c.OnHTML("body", func(e *colly.HTMLElement) {
e.DOM.Find("a").Each(func(index int, item *goquery.Selection) {
link, _ := item.Attr("href")
text := item.Text()
fmt.Printf("Link #%d: %s (%s)n", index, text, link)
writer.Write([]string{text, link})
c.Visit(e.Request.AbsoluteURL(link))
})
})
c.OnRequest(func(r *colly.Request) {
fmt.Println("Visiting", r.URL.String())
})
c.OnError(func(r *colly.Response, err error) {
log.Println("Error:", err)
})
c.Visit("http://example.com")
c.Wait()
}
Para melhorar a estabilidade do rastreador, precisamos lidar com erros de solicitação e implementar um mecanismo de nova tentativa:
package main
import (
"fmt"
"github.com/gocolly/colly"
"github.com/PuerkitoBio/goquery"
"log"
"os"
"time"
)
func main() {
file, err := os.Create("data.csv")
if err != nil {
log.Fatalf("could not create file: %v", err)
}
defer file.Close()
writer := csv.NewWriter(file)
defer writer.Flush()
c := colly.NewCollector(
colly.Async(true),
colly.MaxDepth(1),
)
c.Limit(&colly.LimitRule{
DomainGlob: "*",
Parallelism: 2,
Delay: 2 * time.Second,
})
c.OnHTML("body", func(e *colly.HTMLElement) {
e.DOM.Find("a").Each(func(index int, item *goquery.Selection) {
link, _ := item.Attr("href")
text := item.Text()
fmt.Printf("Link #%d: %s (%s)
n", index, text, link)
writer.Write([]string{text, link})
c.Visit(e.Request.AbsoluteURL(link))
})
})
c.OnRequest(func(r *colly.Request) {
fmt.Println("Visiting", r.URL.String())
})
c.OnError(func(r *colly.Response, err error) {
log.Println("Error:", err)
// 重试机制
if r.StatusCode == 0 || r.StatusCode >= 500 {
r.Request.Retry()
}
})
c.Visit("http://example.com")
c.Wait()
}
O exemplo a seguir mostra como copiar os títulos e links de um site de notícias e salvá-los em um arquivo CSV:
package main
import (
"encoding/csv"
"fmt"
"github.com/gocolly/colly"
"log"
"os"
"time"
)
func main() {
file, err := os.Create("news.csv")
if err != nil {
log.Fatalf("could not create file: %v", err)
}
defer file.Close()
writer := csv.NewWriter(file)
defer writer.Flush()
writer.Write([]string{"Title", "Link"})
c := colly.NewCollector(
colly.Async(true),
)
c.Limit(&colly.LimitRule{
DomainGlob: "*",
Parallelism: 5,
Delay: 1 * time.Second,
})
c.OnHTML(".news-title", func(e *colly.HTMLElement) {
title := e.Text
link := e.ChildAttr("a", "href")
writer.Write([]string{title, e.Request.AbsoluteURL(link)})
fmt.Printf("Title: %snLink: %sn", title, e.Request.AbsoluteURL(link))
})
c.OnRequest(func(r *colly.Request) {
fmt.Println("Visiting", r.URL.String())
})
c.OnError(func(r *colly.Response, err error) {
log.Println("Error:", err)
if r.StatusCode == 0 || r.StatusCode >= 500 {
r.Request.Retry()
}
})
c.Visit("http://example-news-site.com")
c.Wait()
}
Para evitar ser bloqueado pelo site de destino, você pode usar um proxy:
c.SetProxy("http://proxyserver:port")
Finja ser um navegador diferente configurando o agente do usuário:
c.UserAgent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"
Você pode usar a biblioteca de extensão Colly-Redis da Colly para implementar rastreadores distribuídos:
import (
"github.com/gocolly/redisstorage"
)
func main() {
c := colly.NewCollector()
redisStorage := &redisstorage.Storage{
Address: "localhost:6379",
Password: "",
DB: 0,
Prefix: "colly",
}
c.SetStorage(redisStorage)
}
Para páginas da web dinâmicas, você pode usar um navegador headless como o chromedp:
import (
"context"
"github.com/chromedp/chromedp"
)
func main() {
ctx, cancel := chromedp.NewContext(context.Background())
defer cancel()
var res string
err := chromedp.Run(ctx,
chromedp.Navigate("http://example.com"),
chromedp.WaitVisible(`#some-element`),
chromedp.InnerHTML(`#some-element`, &res),
)
if err != nil {
log.Fatal(err)
}
fmt.Println(res)
}
Por meio da introdução detalhada deste artigo, aprendemos como usar o Go 1.19 para implementar uma ferramenta simplificada e automatizada de rastreamento de modelos de site. Começamos com o processo básico de design do rastreador e gradualmente abordamos aspectos-chave, como análise de HTML, processamento simultâneo, armazenamento de dados e tratamento de erros, e demonstramos como rastrear e processar dados de páginas da web por meio de exemplos de código específicos.
Os poderosos recursos de processamento simultâneo da linguagem Go e as ricas bibliotecas de terceiros a tornam a escolha ideal para a construção de rastreadores da Web eficientes e estáveis. Através da otimização e expansão contínuas, funções de rastreador mais complexas e avançadas podem ser alcançadas para fornecer soluções para diversas necessidades de coleta de dados.
Espero que este artigo possa fornecer referências valiosas para a implementação de rastreadores da web na linguagem Go e inspirá-lo a conduzir mais exploração e inovação neste campo.