Hướng dẫn how do i download a dataset from a website in python? - làm cách nào để tải xuống tập dữ liệu từ một trang web trong python?

Yêu cầu là một thư viện HTTP đa năng trong Python với các ứng dụng khác nhau. Một trong những ứng dụng của nó là tải xuống một tệp từ Web bằng tệp URL.installation: Trước hết, bạn sẽ cần tải xuống thư viện yêu cầu. Bạn có thể trực tiếp cài đặt nó bằng PIP bằng cách nhập lệnh sau:
Installation: First of all, you would need to download the requests library. You can directly install it using pip by typing following command:

pip install requests

Hoặc tải xuống trực tiếp từ đây và cài đặt thủ công.

Tải tập tin

Món mã nhỏ được viết ở trên sẽ tải xuống hình ảnh sau từ web. Bây giờ hãy kiểm tra thư mục cục bộ của bạn (thư mục nơi tập lệnh này cư trú) và bạn sẽ tìm thấy hình ảnh này:

Tất cả những gì chúng ta cần là URL của nguồn hình ảnh. (Bạn có thể lấy URL của nguồn hình ảnh bằng cách nhấp chuột phải vào hình ảnh và chọn tùy chọn xem hình ảnh.)

Tải xuống các tập tin lớn

Nội dung phản hồi HTTP (R.Content) không là gì ngoài một chuỗi đang lưu trữ dữ liệu tệp. Vì vậy, nó đã giành chiến thắng để lưu tất cả dữ liệu trong một chuỗi trong trường hợp các tệp lớn. Để khắc phục vấn đề này, chúng tôi thực hiện một số thay đổi cho chương trình của mình:r.content) is nothing but a string which is storing the file data. So, it won’t be possible to save all the data in a single string in case of large files. To overcome this problem, we do some changes to our program:

  • Vì tất cả dữ liệu tệp có thể được lưu trữ bởi một chuỗi duy nhất, chúng tôi sử dụng phương thức r.iter_content để tải dữ liệu theo khối, chỉ định kích thước chunk.r.iter_content method to load data in chunks, specifying the chunk size.
  •  r = requests.get(URL, stream = True)

    Đặt tham số luồng thành true sẽ chỉ khiến việc tải xuống các tiêu đề phản hồi và kết nối vẫn mở. Điều này tránh đọc tất cả nội dung cùng một lúc vào bộ nhớ cho các phản hồi lớn. Một khối cố định sẽ được tải mỗi lần trong khi r.iter_content được lặp lại.stream parameter to True will cause the download of response headers only and the connection remains open. This avoids reading the content all at once into memory for large responses. A fixed chunk will be loaded each time while r.iter_content is iterated.

    Đây là một ví dụ:

    Tải xuống video

    Trong ví dụ này, chúng tôi quan tâm đến việc tải xuống tất cả các bài giảng video có sẵn trên trang web này. Tất cả các tài liệu lưu trữ của bài giảng này có sẵn ở đây. Vì vậy, trước tiên chúng tôi xóa trang web để trích xuất tất cả các liên kết video và sau đó tải xuống từng video.

    import requests 

    from bs4 import BeautifulSoup 

    def get_video_links(): 

     r = requests.get(URL, stream = True)
    0
     r = requests.get(URL, stream = True)
    1
     r = requests.get(URL, stream = True)
    2
     r = requests.get(URL, stream = True)
    3

    ____10

     r = requests.get(URL, stream = True)
    5
     r = requests.get(URL, stream = True)
    2
     r = requests.get(URL, stream = True)
    7
     r = requests.get(URL, stream = True)
    8
     r = requests.get(URL, stream = True)
    9

    ____10import1

     r = requests.get(URL, stream = True)
    2 import3import4
     r = requests.get(URL, stream = True)
    9

    Is

     r = requests.get(URL, stream = True)
    0from5 from6

    def from8

     r = requests.get(URL, stream = True)
    0requests 4 requests 5requests 6 bs4 3

    bs4 4bs4 55

     r = requests.get(URL, stream = True)
    2 bs4 7bs4 8bs4 9import0import1import2

    bs4 4

     r = requests.get(URL, stream = True)
    1
     r = requests.get(URL, stream = True)
    2 BeautifulSoup 2
     r = requests.get(URL, stream = True)
    2 BeautifulSoup 4
     r = requests.get(URL, stream = True)
    9

    bs4 4BeautifulSoup 7BeautifulSoup 8BeautifulSoup 9def0def1

    def2requests 4 def4requests 6 def6

     r = requests.get(URL, stream = True)
    2 def8__

    get_video_links(): 2requests 8 get_video_links(): 4

    get_video_links(): 5get_video_links(): 6

    bs4 4import4import5

     r = requests.get(URL, stream = True)
    00import7
     r = requests.get(URL, stream = True)
    02

     r = requests.get(URL, stream = True)
    0import4
     r = requests.get(URL, stream = True)
    05
     r = requests.get(URL, stream = True)
    06
     r = requests.get(URL, stream = True)
    07

     r = requests.get(URL, stream = True)
    0from5

    requests 8

     r = requests.get(URL, stream = True)
    11
     r = requests.get(URL, stream = True)
    2
     r = requests.get(URL, stream = True)
    2
     r = requests.get(URL, stream = True)
    14
     r = requests.get(URL, stream = True)
    15

     r = requests.get(URL, stream = True)
    0import7
     r = requests.get(URL, stream = True)
    2
     r = requests.get(URL, stream = True)
    19

     r = requests.get(URL, stream = True)
    0
     r = requests.get(URL, stream = True)
    21

    Ưu điểm của việc sử dụng thư viện yêu cầu để tải xuống các tệp web là:

    • Người ta có thể dễ dàng tải xuống các thư mục web bằng cách lặp lại đệ quy thông qua trang web!
    • Đây là một phương pháp độc lập với trình duyệt và nhanh hơn nhiều!
    • Người ta có thể chỉ cần xóa một trang web để lấy tất cả các URL tệp trên trang web và do đó, tải xuống tất cả các tệp trong một lệnh-

      Thực hiện quét web trong Python với BeautifulSoup

    Blog này được đóng góp bởi Nikhil Kumar. Nếu bạn thích GeekSforGeeks và muốn đóng góp, bạn cũng có thể viết một bài viết bằng Write.GeekSforGeek.org hoặc gửi bài viết của bạn. Xem bài viết của bạn xuất hiện trên trang chính của GeekSforGeek và giúp các chuyên viên máy tính khác.

    Vui lòng viết nhận xét nếu bạn tìm thấy bất cứ điều gì không chính xác, hoặc bạn muốn chia sẻ thêm thông tin về chủ đề được thảo luận ở trên.


    Python có thể lấy dữ liệu từ một trang web không?

    Khi lấy dữ liệu từ các trang web có Python, bạn thường quan tâm đến các phần cụ thể của trang. Bằng cách dành một chút thời gian để xem qua tài liệu HTML, bạn có thể xác định các thẻ với các thuộc tính duy nhất mà bạn có thể sử dụng để trích xuất dữ liệu bạn cần., you're often interested in particular parts of the page. By spending some time looking through the HTML document, you can identify tags with unique attributes that you can use to extract the data you need.

    Làm cách nào để tải xuống dữ liệu từ một trang web?

    Có khoảng 5 bước như dưới đây:..
    Kiểm tra trang web HTML mà bạn muốn bò ..
    Truy cập URL của trang web bằng mã và tải xuống tất cả các nội dung HTML trên trang ..
    Định dạng nội dung đã tải xuống thành một định dạng có thể đọc được ..
    Trích xuất thông tin hữu ích và lưu nó vào một định dạng có cấu trúc ..

    Làm cách nào để loại bỏ nội dung từ một trang web?

    Quá trình cạo dữ liệu web..
    Xác định trang web mục tiêu ..
    Thu thập URL của các trang mà bạn muốn trích xuất dữ liệu từ ..
    Yêu cầu các URL này để nhận HTML của trang ..
    Sử dụng trình định vị để tìm dữ liệu trong HTML ..
    Lưu dữ liệu trong tệp JSON hoặc CSV hoặc một số định dạng có cấu trúc khác ..

    Làm thế nào để bạn truy cập bộ dữ liệu trong Python?

    Truy cập bộ dữ liệu từ một ứng dụng Python cục bộ..
    Trong Machine Learning Studio (Classic), nhấp vào bộ dữ liệu trong thanh điều hướng bên trái ..
    Chọn bộ dữ liệu bạn muốn truy cập.....
    Từ thanh công cụ dưới cùng, nhấp vào Tạo mã truy cập dữ liệu ..