Hướng dẫn log loss function python - hàm mất nhật ký python
Hàm loss là thành phần quan trọng trong việc huấn luyện các mô hình học máy. Hãy cùng tìm hiểu ý nghĩa và các trường hợp sử dụng của chúng! Show
Nội dung chính
Hàm loss là gì?Huấn luyện mạng nơ ron nhân tạo giống với cách con người học tập. Chúng ta đưa mô hình dữ liệu, nó đưa ra dự đoán và chúng ta phản hồi xem dự đoán đó có chính xác hay không. Dựa trên phản hồi, mô hình có thể sửa những lỗi sai trước đó. Quá trình này lặp đi lặp lại cho đến khi mô hình đạt đến một độ chính xác nhất định. Việc chỉ ra rằng mô hình đã đoán sai là vô cùng quan trọng để nó có thể học ra tri thức từ dữ liệu. Và đó là nguyên nhân hàm loss được thiết kế. Hàm loss sẽ chỉ ra mô hình đoán sai bao nhiêu so với giá trị thực tế. Trong bài viết này, hãy cùng trituenhantao.io tìm hiểu một số hàm loss phổ biến được sử dụng trong Pytorch. Hàm Loss MAE – Trị tuyệt đối trung bình
Đo sai số trị tuyệt đối trung bình (mean average error) với x là giá trị thực tế, y là giá trị dự đoán. Ý nghĩa của MAEKhi nào thì sử dụng MAE? Hàm Loss MSE – Bình phương trung bình Khi nào thì sử dụng MAE?Hàm Loss MSE – Bình phương trung bình Hàm Loss MSE – Bình phương trung bình
Ý nghĩa của MSELoss Khi nào sử dụng MSELoss? Ý nghĩa của MSELossKhi nào sử dụng MSELoss? Khi nào sử dụng MSELoss?Hàm Loss Smooth L1 – L1 mịn Hàm Loss Smooth L1 – L1 mịn
Ý nghĩa của Smooth L1 Loss Ý nghĩa của Smooth L1 LossKhi nào sử dụng Smooth L1 Loss? Khi nào sử dụng Smooth L1 Loss?Hàm Loss Negative Log-Likelihood Hàm Loss Negative Log-Likelihood
Ý nghĩa của NLLLoss Ý nghĩa của NLLLossKhi nào sử dụng NLLLoss? Khi nào sử dụng NLLLoss?Hàm Loss Cross-Entropy Hàm Loss Cross-Entropy
Ý nghĩa của Cross-Entropy Loss Khi nào sử dụng Cross-entropy Loss? Ý nghĩa của Cross-Entropy LossKhi nào sử dụng Cross-entropy Loss? Khi nào sử dụng Cross-entropy Loss?+ Bài toán phân loại+ Tạo ra các mô hình với độ chắc chắn cao (precision, recall cao)+ Tạo ra các mô hình với độ chắc chắn cao (precision, recall cao) Hàm Loss Kullback-Leibler
KLDivLoss đưa ra một phép đo về sự khác biệt giữa hai phân bố xác suất Với x là xác xuất của nhãn đúng, y và xác suất của nhãn dự đoán. Ý nghĩa của KLDivLossKLDivLoss khá giống với Cross-Entropy Loss. Hai phân bố xác suất càng khác nhau, giá trị loss càng lớn. Sự khác biệt nằm ở chỗ KLDivLoss không phạt mô hình dựa trên độ chắc chắn. Khi nào sử dụng KLDivLoss?+ Bài toán phân loại Hàm Loss Margin Ranking – Xếp hạng biên
Margin Ranking Loss sử dụng hai đầu vào x1, x2, và nhãn y với giá trị (1 hoặc -1). Nếu y == 1 , hàm này sẽ coi đầu vào thứ nhất nên được xếp hạng cao hơn đầu vào thứ 2, và ngược lại với y == -1. Ý nghĩa của Margin Ranking LossDự đoán y của mô hình dựa trên việc xếp hạng x1 và x2. Giả sử rằng giá trị mặc định của biên (margin) bằng 0, nếu y và (x1-x2) cùng dấu, giá trị loss bằng 0. Nếu y và (x1-x2) trái dấu, giá trị loss được tính bởi y * (x1-x2). Khi nào sử dụng Margin Ranking Loss?+ GANs.+ Các nhiệm vụ xếp hạng+ Các nhiệm vụ xếp hạng Hàm Loss Hinge Embedding
Được sử dụng để đo độ tương tự / khác biệt giữa hai đầu vào. Ý nghĩa của Hinge Embedding LossGiá trị dự đoán y của mô hình dựa trên đầu vào x. Giả sử Δ=1, nếu y=-1, giá trị loss được tính bằng (1-x) nếu (1-x)>0 và 0 trong trường hợp còn lại. Với y =1, loss chính là giá trị của x. Khi nào sử dụng Hinge Embedding Loss?+ Học các biểu diễn nhúng không tuyến tính+ Học bán giám sát+ Đo độ tương đồng / khác biệt giữa hai đầu vào+ Học bán giám sát+ Đo độ tương đồng / khác biệt giữa hai đầu vào Hàm Loss Cosine Embedding
Được sử dụng để đo độ tương tự / khác biệt giữa hai đầu vào. Ý nghĩa của Cosine Embedding LossGiá trị dự đoán y được xác định dựa trên khoảng cách cosine giữa hai đầu vào x1 và x2. Giá trị này xác định bởi góc giữa hai véc tơ theo công thức: Khi nào sử dụng Cosine Embedding Loss?+ Học các biểu diễn nhúng không tuyến tính+ Học bán giám sát+ Đo độ tương đồng / khác biệt giữa hai đầu vào + Học bán giám sát+ Đo độ tương đồng / khác biệt giữa hai đầu vào Nếu bạn thấy bài viết này hữu ích, đừng ngại chia sẻ với những người quan tâm. Hãy thường xuyên truy cập trituenhantao.io hoặc đăng ký (dưới chân trang) để có được những bài viết hữu ích, mới nhất về chủ đề này!
|