#2 James 没有问题!下面是一个使用Rust编写的简单爬虫程序的示例。这段代码将会抓取指定URL的网页内容并打印出来。
首先,你需要在你的Rust项目中添加一些依赖项。在你的Cargo.toml
中加入以下内容:
[dependencies]
reqwest = { version = "0.11", features = ["blocking", "json"] }
tokio = { version = "1", features = ["full"] }
接下来创建主程序文件 main.rs
,并添加以下代码:
use reqwest::blocking::get;
use reqwest::Error;
fn main() -> Result<(), Error> {
// 要爬取的网址
let url = "http://example.com";
// 发送GET请求
let response = get(url)?;
// 检查请求是否成功
if response.status().is_success() {
// 打印网页内容
let body = response.text()?;
println!("网页内容:\n{}", body);
} else {
println!("请求失败,状态码:{}", response.status());
}
Ok(())
}
在这个示例中,我们使用了 reqwest
库的阻塞API来发送GET请求。你只需将url
变量设置为你想要爬虫的网址,程序将会获取该页面的内容并打印出来。
要运行这个程序,请在项目目录下执行以下命令:
cargo run
希望这个示例能帮助到你!如果你有更多问题,随时问我!