Giải mã sức mạnh ChatGPT - chatbot làm Google run sợ hóa ra của chính các nhà nghiên cứu tại Google

25/01/2023 13:00
Mới chỉ ra mắt từ cuối tháng 11 năm 2022, nhưng sự xuất hiện của ChatGPT đang tạo nên một cơn địa chấn đối với lĩnh vực nghiên cứu trí tuệ nhân tạo nói riêng cũng như với toàn ngành công nghệ nói chung. Với khả năng trình bày các câu trả lời một cách mạch lạc, chỉn chu như người thật, ChatGPT đã làm người dùng toàn cầu bất ngờ và thay đổi hoàn toàn cách nhìn về công nghệ AI mới này.

Nhiều nhà đầu tư đánh giá sự trỗi dậy ChatGPT đang mở ra một cuộc cách mạng công nghệ tương tự như việc internet hay iPhone xuất hiện trước đây. Điều này lý giải vì sao, bất chấp bối cảnh suy thoái toàn ngành công nghệ, OpenAI vẫn thu hút được vốn đầu tư với mức định giá lên đến 29 tỷ USD. Bên cạnh đó, nguồn vốn cũng đang đổ vào các startup về loại AI sản sinh (generative AI).

Trên thực tế, AI hay chatbot đều là các công nghệ đã được nói đến từ lâu nhưng chỉ đến sự xuất hiện của ChatGPT, mọi người mới nhận ra tiềm năng cũng như sức ảnh hưởng to lớn của các công nghệ này đối với thế giới. Vậy điều gì làm nên sự khác biệt cho ChatGPT so với những người tiền nhiệm mà khiến cả người khổng lồ công nghệ Google cũng phải run sợ?

Nhưng ít ai biết, trái tim cho khả năng giao tiếp như "nói chuyện với con người" của ChatGPT lại do chính các nhà nghiên cứu của Google phát triển và thực hiện mã nguồn mở cho nó: kiến trúc học sâu Transformer.

Kiến trúc này là nền tảng cho việc xây dựng nên các mô hình xử lý ngôn ngữ tự nhiên nổi tiếng như BERT của Google hay họ mô hình GPT (viết tắt của Generative Pre-trained Transformer) của OpenAI với các cái tên nổi tiếng bao gồm GPT-2 và GPT-3. Trong đó GPT-3 chính là nền tảng để tạo nên chatbot ChatGPT đang nổi tiếng hiện nay.

Không mấy nổi tiếng với công chúng nên ít ai biết rằng, sự xuất hiện của kiến trúc học sâu Transformer đã làm nên bước ngoặt cho các mô hình xử lý ngôn ngữ tự nhiên để từ đó tạo ra được một chatbot như ChatGPT. Để hiểu được tầm quan trọng này, cần biết được cách các cỗ máy xử lý ngôn ngữ con người như thế nào trước khi kiến trúc Transformer này ra đời.

 Giải mã sức mạnh ChatGPT - chatbot làm Google run sợ hóa ra của chính các nhà nghiên cứu tại Google - Ảnh 1.

Trước đây, các mô hình ngôn ngữ tự nhiên thường đi theo hướng xử lý tuần tự các từ ngữ. Ví dụ mô hình Word2Vec cho phép huấn luyện nên các AI có khả năng hiểu được những từ liên quan đến nhau, như khi bạn nói đến điện thoại, máy tính sẽ "liên tưởng" đến cả các từ khác như "điện thoại di động", "iPhone", "Android", "màn hình cảm ứng" … Sau đó kiến trúc Mạng thần kinh nhân tạo hồi quy (RNNs) ra đời cho phép xử lý tuần tự các câu trong một đoạn văn bản.

Nhưng việc huấn luyện theo cách tiếp cận này rất chậm chạp cũng như bị giới hạn về lượng dữ liệu có thể được huấn luyện, làm cho máy tính khó có thể liên kết ý nghĩa từng từ với bối cảnh của cả đoạn văn bản hoặc cả bài viết.

Năm 2018, mô hình mới có tên ELMo (Embeddings from Language Models) được giới thiệu và là mô hình đầu tiên có khả năng xử lý ngôn ngữ không tuần tự, nhằm mô phỏng cách con người đọc và xử lý văn bản.

Dùng kiến trúc RNNs, ELMo xử lý đoạn văn bản theo 2 chiều: đọc từ đầu đến cuối và ngược lại, đọc từ cuối lên đầu để sau đó kết hợp cả 2 chiều văn bản này để hiểu được ý nghĩa của nó. Mặc dù là một bước tiến dài về khả năng xử lý ngôn ngữ nhưng ELMo vẫn gặp khó khăn khi muốn huấn luyện nó với các câu hay các đoạn văn bản ngày càng dài hơn.

 Giải mã sức mạnh ChatGPT - chatbot làm Google run sợ hóa ra của chính các nhà nghiên cứu tại Google - Ảnh 2.

Khác với xử lý tuần tự từng từ, từng câu của các mô hình trước đó, kiến trúc Transformer của Google dựa trên cơ chế về sự chú ý (attention mechanism). Cơ chế này cho phép các mô hình xử lý ngôn ngữ dùng các lớp lọc sự chú ý (attention layer) để đánh giá được tầm quan trọng của các từ, các câu trong một đoạn văn bản dựa trên mức độ liên quan của nó đến toàn bộ văn bản đó.

Có thể nói mỗi lớp lọc sự chú ý này như một lần học hỏi thêm về đầu vào của dữ liệu, giúp xem xét các phần khác nhau của câu và khám phá thêm thông tin về ngữ nghĩa hoặc cú pháp. Các lớp lọc này cho phép mô hình vẫn duy trì được tốc độ học hỏi của mình không bị chậm đi khi độ dài của câu tăng lên. Khi đó, các mô hình xử lý chỉ việc bổ sung thêm các layer mới để lọc thêm và học hỏi thêm về dữ liệu mới. Nhờ các lớp lọc này, các mô hình có thể quét đồng thời toàn bộ văn bản và hiểu được ngữ nghĩa của nó.

 Giải mã sức mạnh ChatGPT - chatbot làm Google run sợ hóa ra của chính các nhà nghiên cứu tại Google - Ảnh 3.

Để so sánh, mô hình xử lý ngôn ngữ BERT nổi tiếng trước đây chứa 24 lớp lọc sự chú ý, GPT-2 – mô hình xử lý ngôn ngữ được OpenAI phát hành vào đầu năm 2019 – chứa 12 lớp lọc, trong khi đó GPT-3, mô hình làm nên ChatGPT hiện nay, chứa đến 96 lớp lọc sự chú ý.

 Giải mã sức mạnh ChatGPT - chatbot làm Google run sợ hóa ra của chính các nhà nghiên cứu tại Google - Ảnh 4.
 Giải mã sức mạnh ChatGPT - chatbot làm Google run sợ hóa ra của chính các nhà nghiên cứu tại Google - Ảnh 5.

Bên cạnh đó, không thể không kể đến một lợi ích khác của kiến trúc Transformer là khả năng sử dụng các mô hình được huấn luyện trước (các pre-trained models) – điều không xuất hiện cho đến khi ELMo ra mắt. Ý tưởng này tương tự như ImageNet, cơ sở dữ liệu khổng lồ các hình ảnh được gắn nhãn trước, giúp các mô hình nhận diện hình ảnh không phải huấn luyện từ đầu cho những công việc này.

Trong khi đó, các khối dữ liệu ngôn ngữ còn phức tạp, khó xử lý hơn nhiều so với các dữ liệu nhận diện hình ảnh. Do vậy, các mô hình xử lý ngôn ngữ cần nhiều dữ liệu hơn để nhận diện được mối quan hệ giữa các từ và các cụm từ. Do vậy, nếu không có các mô hình được huấn luyện trước, chỉ những người khổng lồ công nghệ mới đủ nguồn lực xử lý dữ liệu và huấn luyện các mô hình nhận diện dữ liệu đó, còn đối với các startup nhỏ, điều này là bất khả thi hoặc tiến triển rất chậm.

 Giải mã sức mạnh ChatGPT - chatbot làm Google run sợ hóa ra của chính các nhà nghiên cứu tại Google - Ảnh 6.

Các mô hình như GPT-3 được huấn luyện trên 45TB dữ liệu và chứa đến 175 tỷ thông số khác nhau – lớn vượt trội so với các mô hình nổi tiếng trước đây như BERT của Google, RoBERTa của Facebook, Turing NLG của Microsoft … . Khối dữ liệu của GPT-3 bao gồm hơn 8 triệu văn bản với 10 tỷ từ. Đây chính là nền tảng cho khả năng giao tiếp, trò chuyện làm nhiều người bất ngờ của ChatGPT.

Ngoài ra, một lợi ích khác của các mô hình huấn luyện trước là khả năng tinh chỉnh cho những tác vụ cụ thể mà không cần có sẵn nhiều dữ liệu. Ví dụ, đối với mô hình BERT, bạn chỉ cần vài nghìn mẫu dữ liệu là có thể tinh chỉnh mô hình cho một tác vụ mới nào đó. Còn với mô hình đã được huấn luyện với quá nhiều dữ liệu như GPT-3, chỉ cần được huấn luyện thêm với một lượng dữ liệu nhỏ cũng đủ để ChatGPT thực hiện một tác vụ mới, ví dụ như lập trình.

Trên thực tế, các yếu tố nói trên chỉ là những lợi thế về nền tảng công nghệ so với các chatbot và AI tiền nhiệm, còn để tạo nên ChatGPT với tiềm năng có thể thay đổi cả ngành công nghệ cũng như đe dọa đến vị thế của Google hiện nay, không thể không kể đến đội ngũ những nhà nghiên cứu AI bên trong OpenAI. Chính họ là người làm nên cốt lõi cho sự khác biệt mà ChatGPT đang mang lại.

Còn hơn cả một chatbot với khả năng giao tiếp như người thật, ChatGPT thực sự mở ra một cánh cửa mới cho tiềm năng trí tuệ nhân tạo và khả năng thay đổi nhiều ngành nghề kinh tế cả trong tương lai. Vì lý do đó, không khó hiểu khi thấy OpenAI đang được định giá đến 29 tỷ USD ngay cả khi chưa có mô hình kinh doanh cụ thể nào.

Tin mới

Đặt ra một quy tắc ngầm nghiêm ngặt, ngành bán dẫn Trung Quốc sắp vượt mặt Hàn Quốc trong vài năm tới
35 phút trước
Với quy tắc này, hàng loạt sản phẩm bán dẫn của Hàn Quốc đang bị các nhà sản xuất nội địa của Trung Quốc âm thầm thay thế.
Ukraine và 34 nước lập ủy ban đặc biệt
37 phút trước
Ukraine cùng 34 quốc gia nhất trí lập ủy ban quốc tế tiếp nhận yêu cầu bồi thường thiệt hại do xung đột với Nga, song nguồn tài chính vẫn chưa rõ.
Đặt đồ ăn nhưng người giao hàng tới là cảnh sát, vị khách thót tim khi nghe sự thật về anh shipper
53 phút trước
Khoảnh khắc cánh cửa mở ra, người đứng trước mặt lại không phải shipper mà là một cảnh sát, khiến vị khách đặt đồ không khỏi sững người.
Kinh hoàng khoảnh khắc gấu đen tấn công huấn luyện viên trong sở thú
59 phút trước
Sự cố tại sở thú Hangzhou Safari Park (Trung Quốc) khiến nhiều người bàng hoàng và lo ngại về an toàn trong các buổi biểu diễn động vật.
'Nút thắt' cuối cùng cao tốc Bến Lức - Long Thành tăng tốc về đích
5 phút trước
Hơn 3 tháng tái khởi công sau nhiều năm "ngủ quên", cầu Phước Khánh - nút thắt cuối cùng của cao tốc Bến Lức - Long Thành đang bứt tốc về đích.

Tin cùng chuyên mục

Bắt tạm giam Huỳnh Đức Vân, những ai là bị hại cần liên hệ ngay cơ quan công an
7 giờ trước
Công an Đà Nẵng vừa triệt phá thành công một chuyên án lừa đảo chiếm đoạt tài sản trong kinh doanh đa cấp tiền ảo với tính chất đặc biệt nghiêm trọng, quy mô hoạt động trên toàn quốc, số tiền chiếm đoạt lên đến hàng nghìn tỷ đồng.
Gaming phone mạnh nhất thị trường REDMAGIC 11 Pro vừa mở đặt trước, giá từ 18,99 triệu đồng
3 ngày trước
Từ nay đến ngày 17/12, FPT Shop triển khai chương trình đặt trước REDMAGIC 11 Pro – mẫu gaming phone cao cấp mới nhất của REDMAGIC, đánh dấu đợt mở bán sớm nhất tại Việt Nam.
Home Credit lọt top 10 Doanh nghiệp Bền vững lĩnh vực Thương mại - Dịch vụ
13/12/2025 08:00
Lần thứ tư liên tiếp được VCCI vinh danh, giải thưởng này là sự khẳng định mạnh mẽ cho bước tiến vượt bậc của Home Credit Việt Nam trong chiến lược phát triển bền vững suốt 17 năm qua.
'Bé 3' VF 3 vừa giúp VinFast lập một kỷ lục 'vô đối'
13/12/2025 04:10
Với tổng cộng 40.660 xe được bàn giao tính đến hết tháng 11 năm 2025, VinFast VF 3 đã chính thức vượt qua kỷ lục doanh năm ngoái của mẫu xe "anh em" là VF 5.