<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title/><link>http://knoverse.io.vn/</link><description>Recent content on</description><generator>Hugo</generator><language>en</language><copyright>&lt;a href="http://knoverse.io.vn/" target="_blank" rel="noopener"&gt;Khanh&lt;/a&gt;</copyright><lastBuildDate>Sat, 21 Dec 2024 00:00:00 +0000</lastBuildDate><atom:link href="http://knoverse.io.vn/index.xml" rel="self" type="application/rss+xml"/><item><title>Self-Attention và Multi-head Sefl-Attention trong Transformers</title><link>http://knoverse.io.vn/posts/2024/12/self-attention-v%C3%A0-multi-head-sefl-attention-trong-transformers/</link><pubDate>Sat, 21 Dec 2024 00:00:00 +0000</pubDate><guid>http://knoverse.io.vn/posts/2024/12/self-attention-v%C3%A0-multi-head-sefl-attention-trong-transformers/</guid><description>&lt;blockquote&gt;
&lt;p&gt;Note: Có thể xem bài viết trên viblo &lt;a href="https://viblo.asia/p/self-attention-va-multi-head-sefl-attention-trong-transformers-n1j4lO2aVwl"&gt;ở đây&lt;/a&gt;. Nếu thấy hay cho mình xin upvote. Cảm ơn !&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;strong&gt;Transformers&lt;/strong&gt; là gì? Liệu nó có gì đặc biệt mà trong machine learning người ta nhắc đến nó nhiều như thế? Trước thời điểm Google giới thiệu bài báo nổi tiếng &lt;a href="https://arxiv.org/abs/1706.03762v7"&gt;Attention Is All You Need&lt;/a&gt; thì transformers là &amp;ldquo;Người máy biến hình&amp;rdquo; là &amp;ldquo;Máy biến áp&amp;rdquo;. Sau khi bài báo được công bố thì transformers lại trở thành một trong những kiến trúc nổi bật trong lĩnh vực xử lý ngôn ngữ tự nhiên (NLP) và xử lý ảnh. Với khả năng xử lý song song và nắm bắt các mối quan hệ phức tạp giữa các từ trong câu, transformers đã giải quyết các hạn chế của mạng RNN và các biến thể (LSTM, GRU&amp;hellip;). Xương sống của kiến trúc này chính là cơ chế &lt;strong&gt;self-attention&lt;/strong&gt; giúp mô hình tập trung vào các thông tin quan trọng, hiệu quả hơn trong việc hiểu ngữ cảnh của từng từ trong câu và cho phép các transformers có bộ nhớ cực kỳ dài hạn. Có thể ví transformers như là 1 hộp đen, trong một ứng dụng dịch máy, nó sẽ &amp;ldquo;ngậm&amp;rdquo; vào một câu trong một ngôn ngữ và &amp;ldquo;thổi&amp;rdquo; ra bản dịch của nó trong một ngôn ngữ khác.&lt;/p&gt;</description></item><item><title>About</title><link>http://knoverse.io.vn/about/</link><pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate><guid>http://knoverse.io.vn/about/</guid><description>&lt;p&gt;Khi mà AI ngày càng &amp;ldquo;khun&amp;rdquo; :)) Cứ thắc mắc chi thì chọt tay lên chatgpt, gemini… mà hỏi, tiện phết. Ồ, mình thử rồi, đã vcl , cứ mình hỏi thì AI trả lời đôi khi không hỏi mà nó còn gợi ý. Rồi mình nhận ra vấn đề, mặc dù khi hỏi thì sướng thật, chả cần search kết quả cứ thế hiện ra, trình bày rõ ràng, đôi khi gặp phải hallucination nhưng tốt hơn rất nhiều so với việc tự search trước đây. Nhưng những kiến thức ấy quên nhanh vcl. Rứa là mình cần viết , viết lại những cấy mà mình chộ hay , ý nghĩa và viết cho khỏi quên .Đôi khi viết để trải lòng về hoặc viết để vài năm sau coi lại :))&lt;/p&gt;</description></item><item><title>Vector Gradient &amp; Directional Derivative</title><link>http://knoverse.io.vn/posts/2023/09/vector-gradient-directional-derivative/</link><pubDate>Fri, 15 Sep 2023 00:00:00 +0000</pubDate><guid>http://knoverse.io.vn/posts/2023/09/vector-gradient-directional-derivative/</guid><description>&lt;p&gt;Các thuật toán tối ưu hàm mất mát (loss function) phổ biến hiện nay như Gradient Descent hay Adam &amp;hellip; đã cho thấy tính hiệu quả trong quá trình huấn luyện mô hình. Các thuật toán này hoạt động bằng cách cập nhật trọng số (weight) theo hướng ngược lại với vector gradient. Tại sao lại phải là ngược hướng Vector Gradient?&lt;/p&gt;
&lt;h2 id="1-ordinary-derivativeđạo-hàm-thông-thường"&gt;1) Ordinary derivative(đạo hàm thông thường)&lt;/h2&gt;
&lt;p&gt;Đạo hàm cấp 1 của hàm một biến ($f: \mathbb{R} \to \mathbb{R}$) (ordinary derivative) tại điểm $x$ được định nghĩa là :
$$
f&amp;rsquo;(x) = \lim_{\Delta x \to 0} \frac{f(x - \Delta x) - f(x)}{\Delta x}
$$
Công thức trên khá quen thuộc trong chương trình THPT . Nó biểu thị tốc độ thay đổi của $f(x)$ khi $x$ thay đổi một lượng rất nhỏ là $\Delta x$. . Đối với đồ thị trên mặt phẳng tọa độ, đạo hàm tại một điểm trên đồ thị bằng độ dốc của đường tiếp tuyến với đồ thị tại điểm đó. Chính vì thế mới có nguyên tắc tìm tiếp tuyến của đồ thị tại một điểm bằng cách tính đạo hàm.&lt;/p&gt;</description></item></channel></rss>