Hướng dẫn log loss function python - hàm mất nhật ký python

Hàm loss là thành phần quan trọng trong việc huấn luyện các mô hình học máy. Hãy cùng tìm hiểu ý nghĩa và các trường hợp sử dụng của chúng!

Nội dung chính

  • Hàm loss là gì?
  • Hàm Loss MAE – Trị tuyệt đối trung bình
  • Ý nghĩa của MAE
  • Khi nào thì sử dụng MAE?
  • Hàm Loss MSE – Bình phương trung bình
  • Ý nghĩa của MSELoss
  • Khi nào sử dụng MSELoss?
  • Hàm Loss Smooth L1 – L1 mịn
  • Ý nghĩa của Smooth L1 Loss
  • Khi nào sử dụng Smooth L1 Loss?
  • Hàm Loss Negative Log-Likelihood
  • Ý nghĩa của NLLLoss
  • Khi nào sử dụng NLLLoss?
  • Hàm Loss Cross-Entropy
  • Ý nghĩa của Cross-Entropy Loss
  • Khi nào sử dụng Cross-entropy Loss?
  • Hàm Loss Kullback-Leibler
  • Ý nghĩa của KLDivLoss
  • Khi nào sử dụng KLDivLoss?
  • Hàm Loss Margin Ranking – Xếp hạng biên
  • Ý nghĩa của Margin Ranking Loss
  • Khi nào sử dụng Margin Ranking Loss?
  • Hàm Loss Hinge Embedding
  • Ý nghĩa của Hinge Embedding Loss
  • Khi nào sử dụng Hinge Embedding Loss?
  • Hàm Loss Cosine Embedding
  • Ý nghĩa của Cosine Embedding Loss
  • Khi nào sử dụng Cosine Embedding Loss?

Hàm loss là gì?

Huấn luyện mạng nơ ron nhân tạo giống với cách con người học tập. Chúng ta đưa mô hình dữ liệu, nó đưa ra dự đoán và chúng ta phản hồi xem dự đoán đó có chính xác hay không. Dựa trên phản hồi, mô hình có thể sửa những lỗi sai trước đó. Quá trình này lặp đi lặp lại cho đến khi mô hình đạt đến một độ chính xác nhất định.

Việc chỉ ra rằng mô hình đã đoán sai là vô cùng quan trọng để nó có thể học ra tri thức từ dữ liệu. Và đó là nguyên nhân hàm loss được thiết kế. Hàm loss sẽ chỉ ra mô hình đoán sai bao nhiêu so với giá trị thực tế. Trong bài viết này, hãy cùng trituenhantao.io tìm hiểu một số hàm loss phổ biến được sử dụng trong Pytorch.

Hàm Loss MAE – Trị tuyệt đối trung bình

torch.nn.L1Loss

Đo sai số trị tuyệt đối trung bình (mean average error)

Hướng dẫn log loss function python - hàm mất nhật ký python

với x là giá trị thực tế, y là giá trị dự đoán.

Ý nghĩa của MAE

Khi nào thì sử dụng MAE?

Hàm Loss MSE – Bình phương trung bình

Khi nào thì sử dụng MAE?

Hàm Loss MSE – Bình phương trung bình
+ Các mô hình đơn giản
+ Mạng nơ ron thường sử dụng với các bài toán phức tạp nên MAE ít được dùng

Hàm Loss MSE – Bình phương trung bình

torch.nn.MSELoss

Ý nghĩa của MSELoss

Khi nào sử dụng MSELoss?

Ý nghĩa của MSELoss

Khi nào sử dụng MSELoss?

Khi nào sử dụng MSELoss?

Hàm Loss Smooth L1 – L1 mịn
+ Đặc trưng dạng số không quá lớn
+ Bài toán trong không gian có số chiều không quá lớn

Hàm Loss Smooth L1 – L1 mịn

torch.nn.SmoothL1Loss

Ý nghĩa của Smooth L1 Loss

Ý nghĩa của Smooth L1 Loss

Khi nào sử dụng Smooth L1 Loss?

Khi nào sử dụng Smooth L1 Loss?

Hàm Loss Negative Log-Likelihood
+ Đặc trưng có giá trị lớn
+ Phù hợp với đa số các bài toán

Hàm Loss Negative Log-Likelihood

torch.nn.NLLLoss

Ý nghĩa của NLLLoss

Ý nghĩa của NLLLoss

Khi nào sử dụng NLLLoss?

Khi nào sử dụng NLLLoss?

Hàm Loss Cross-Entropy

Hàm Loss Cross-Entropy

torch.nn.CrossEntropyLoss

Ý nghĩa của Cross-Entropy Loss

Khi nào sử dụng Cross-entropy Loss?

Ý nghĩa của Cross-Entropy Loss

Khi nào sử dụng Cross-entropy Loss?

Khi nào sử dụng Cross-entropy Loss?

+ Bài toán phân loại+ Tạo ra các mô hình với độ chắc chắn cao (precision, recall cao)+ Tạo ra các mô hình với độ chắc chắn cao (precision, recall cao)
+ Tạo ra các mô hình với độ chắc chắn cao (precision, recall cao)

Hàm Loss Kullback-Leibler

torch.nn.KLDivLoss

KLDivLoss đưa ra một phép đo về sự khác biệt giữa hai phân bố xác suất

Với x là xác xuất của nhãn đúng, y và xác suất của nhãn dự đoán.

Ý nghĩa của KLDivLoss

KLDivLoss khá giống với Cross-Entropy Loss. Hai phân bố xác suất càng khác nhau, giá trị loss càng lớn. Sự khác biệt nằm ở chỗ KLDivLoss không phạt mô hình dựa trên độ chắc chắn.

Khi nào sử dụng KLDivLoss?

+ Bài toán phân loại

Hàm Loss Margin Ranking – Xếp hạng biên

torch.nn.MarginRankingLoss

Margin Ranking Loss sử dụng hai đầu vào x1, x2, và nhãn y với giá trị (1 hoặc -1). Nếu y == 1 , hàm này sẽ coi đầu vào thứ nhất nên được xếp hạng cao hơn đầu vào thứ 2, và ngược lại với y == -1.

Ý nghĩa của Margin Ranking Loss

Dự đoán y của mô hình dựa trên việc xếp hạng x1 và x2. Giả sử rằng giá trị mặc định của biên (margin) bằng 0, nếu y và (x1-x2) cùng dấu, giá trị loss bằng 0. Nếu y và (x1-x2) trái dấu, giá trị loss được tính bởi y * (x1-x2).

Khi nào sử dụng Margin Ranking Loss?

+ GANs.+ Các nhiệm vụ xếp hạng+ Các nhiệm vụ xếp hạng
+ Các nhiệm vụ xếp hạng

Hàm Loss Hinge Embedding

torch.nn.HingeEmbeddingLoss

Được sử dụng để đo độ tương tự / khác biệt giữa hai đầu vào.

Ý nghĩa của Hinge Embedding Loss

Giá trị dự đoán y của mô hình dựa trên đầu vào x. Giả sử Δ=1, nếu y=-1, giá trị loss được tính bằng (1-x) nếu (1-x)>0 và 0 trong trường hợp còn lại. Với y =1, loss chính là giá trị của x.

Khi nào sử dụng Hinge Embedding Loss?

+ Học các biểu diễn nhúng không tuyến tính+ Học bán giám sát+ Đo độ tương đồng / khác biệt giữa hai đầu vào+ Học bán giám sát+ Đo độ tương đồng / khác biệt giữa hai đầu vào
+ Học bán giám sát
+ Đo độ tương đồng / khác biệt giữa hai đầu vào

Hàm Loss Cosine Embedding

torch.nn.CosineEmbeddingLoss

Được sử dụng để đo độ tương tự / khác biệt giữa hai đầu vào.

Ý nghĩa của Cosine Embedding Loss

Giá trị dự đoán y được xác định dựa trên khoảng cách cosine giữa hai đầu vào x1 và x2. Giá trị này xác định bởi góc giữa hai véc tơ theo công thức:

Khi nào sử dụng Cosine Embedding Loss?

+ Học các biểu diễn nhúng không tuyến tính+ Học bán giám sát+ Đo độ tương đồng / khác biệt giữa hai đầu vào + Học bán giám sát+ Đo độ tương đồng / khác biệt giữa hai đầu vào
+ Học bán giám sát
+ Đo độ tương đồng / khác biệt giữa hai đầu vào

Nếu bạn thấy bài viết này hữu ích, đừng ngại chia sẻ với những người quan tâm. Hãy thường xuyên truy cập trituenhantao.io hoặc đăng ký (dưới chân trang) để có được những bài viết hữu ích, mới nhất về chủ đề này!

  • Issue: ***
  • Your Name: ***
  • Your Email: ***
  • Details: ***