<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Transformers on</title><link>http://knoverse.io.vn/tags/transformers/</link><description>Recent content in Transformers on</description><generator>Hugo</generator><language>en</language><copyright>&lt;a href="http://knoverse.io.vn/" target="_blank" rel="noopener"&gt;Khanh&lt;/a&gt;</copyright><lastBuildDate>Sat, 21 Dec 2024 00:00:00 +0000</lastBuildDate><atom:link href="http://knoverse.io.vn/tags/transformers/index.xml" rel="self" type="application/rss+xml"/><item><title>Self-Attention và Multi-head Sefl-Attention trong Transformers</title><link>http://knoverse.io.vn/posts/2024/12/self-attention-v%C3%A0-multi-head-sefl-attention-trong-transformers/</link><pubDate>Sat, 21 Dec 2024 00:00:00 +0000</pubDate><guid>http://knoverse.io.vn/posts/2024/12/self-attention-v%C3%A0-multi-head-sefl-attention-trong-transformers/</guid><description>&lt;blockquote&gt;
&lt;p&gt;Note: Có thể xem bài viết trên viblo &lt;a href="https://viblo.asia/p/self-attention-va-multi-head-sefl-attention-trong-transformers-n1j4lO2aVwl"&gt;ở đây&lt;/a&gt;. Nếu thấy hay cho mình xin upvote. Cảm ơn !&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;strong&gt;Transformers&lt;/strong&gt; là gì? Liệu nó có gì đặc biệt mà trong machine learning người ta nhắc đến nó nhiều như thế? Trước thời điểm Google giới thiệu bài báo nổi tiếng &lt;a href="https://arxiv.org/abs/1706.03762v7"&gt;Attention Is All You Need&lt;/a&gt; thì transformers là &amp;ldquo;Người máy biến hình&amp;rdquo; là &amp;ldquo;Máy biến áp&amp;rdquo;. Sau khi bài báo được công bố thì transformers lại trở thành một trong những kiến trúc nổi bật trong lĩnh vực xử lý ngôn ngữ tự nhiên (NLP) và xử lý ảnh. Với khả năng xử lý song song và nắm bắt các mối quan hệ phức tạp giữa các từ trong câu, transformers đã giải quyết các hạn chế của mạng RNN và các biến thể (LSTM, GRU&amp;hellip;). Xương sống của kiến trúc này chính là cơ chế &lt;strong&gt;self-attention&lt;/strong&gt; giúp mô hình tập trung vào các thông tin quan trọng, hiệu quả hơn trong việc hiểu ngữ cảnh của từng từ trong câu và cho phép các transformers có bộ nhớ cực kỳ dài hạn. Có thể ví transformers như là 1 hộp đen, trong một ứng dụng dịch máy, nó sẽ &amp;ldquo;ngậm&amp;rdquo; vào một câu trong một ngôn ngữ và &amp;ldquo;thổi&amp;rdquo; ra bản dịch của nó trong một ngôn ngữ khác.&lt;/p&gt;</description></item></channel></rss>