Episode 23: Tận thế kẹp giấy

Giả sử chúng ta có một AI mà mục tiêu duy nhất của nó là tạo ra càng nhiều kẹp giấy càng tốt. AI sẽ nhanh chóng nhận ra rằng nó sẽ tốt hơn nhiều nếu như không có con người. Nếu người quyết định tắt nó đi, sẽ có ít kẹp giấy hơn. Hơn nữa, cơ thể người chứa rất nhiều nguyên tử có thể được chế tạo thành kẹp giấy. Tương lai mà AI này sẽ cố gắng hướng tới sẽ là một nơi có rất nhiều kẹp giấy nhưng không có con người.

Bản năng sinh tồn sẽ phát sinh ở bất cứ goal-oriented agent nào.

Show note:

00:00 – 46:43 Chẳng tình nào chặt nổi con dao

Hallucination

LLM (large language model)

Cybernetics

Automata theory

Symbolic AI

Formal language

Mechanical Turk

Deep Blue

Neural backpropagation

Convolutional neural network

Recurrent neural network

Feed forward neural network

Transformer

Gradient descent

Reinforment learning from human feedback

46:44 – 1:36:23 Thế năng positron

The Moral machine

Utility monster

Optimization function

Instrumental convergence

1:36:24 – 2:20:16 Các chuyên gia đồng điệu

Explainable AI

AGI

Order sách “ChatGPT là gì? Phép lạ nào khiến nó hoạt động?” tại Oddly normal store

Tác giả Stephen Wolfram

Dịch bởi Oddly normal

6 comments on “Episode 23: Tận thế kẹp giấy

  1. Hùng Vương Hoàng says:

    Cảm ơn team cuối cùng cũng ra tập mới về AI. Trong phút 31 team có nói về cơ chế thực sự cử SSRIs trong điều trị trầm cảm chưa được biết chính xác và 1 (vài) phân tích meta-analysis cho thấy thiếu hụt Serotonin trong neuron không phải là nguyên nhân gây trầm cảm. Em có thể xin reference tới các phân tích này được không ạ, em cảm ơn team rất nhiều, em xin để lại email ạ: [email protected]

  2. Tu Nguyen says:

    Thật vui vì anh chị đã lại ra tập mới 😀 Cơ mà có câu hỏi nhỏ là anh chị có định phát hành ebook cho “Miễn dịch” với “ChatGPT không ạ?

  3. bach says:

    Em sẵn sàng mua ebook cho 2 quyển Chatgpt với Miễn Dịch mà không cần suy nghĩ luôn. Mong team sẽ ra bản ebook ạ

  4. Mai says:

    với 1 người vừa học môn sinh lý xong thì đoạn ion pump, exon, synap, neurotransmitter làm em cảm thấy rất thân thương luôn ấy ạ

  5. Nguyễn Cao Huy says:

    Xin chào Oddly Normal, cảm ơn vì cuốn sách rất hay, mình vừa nhận được nó và đang rất mong có thể được tìm hiểu nó một cách kỹ lưỡng nhất. Mình có một đoạn ở trong trang 39, chương “Xác suất ở đâu ra” mà mình đang không hiểu và đang tìm kiếm ref để tìm câu trả lời nhưng chưa tìm thấy nên phải chụp ngay cái lap để mang sự phân vân này cho team Odd. Câu nói nguyên văn như sau:” Nhưng với 40.000 từ phổ biến, số lượng 2-gram khả dĩ đã là 1.6 tỷ và số lượng 3-gram là 60 nghìn tỷ. Do đó không có cách nào có thể ước tính những xác xuất đó, kể cả khi dùng toàn bộ những văn bản đang tồn tại ngoài kia”. Nếu vấn đề là “không ước tính được những xác suất đó” thì theo mình hiểu là phần cứng hiện tại của máy tính chưa đủ khả năng để tính toán theo công thức có sẵn dựa trên dữ liệu thì giải pháp phải là tăng cường phần cứng để máy tính thực hiện các phép toán với lượng dữ liệu lớn chứ sao lại là “không có đủ dữ liệu kể cả dùng toàn bộ những văn bản đang tồn tại ngoài kia”? Là do việc phát triển một siêu máy tính như vậy là bất khả thi hay con người đã có một pha xử lý hơi cồng kềnh?

    1. Hải Nguyễn says:

      Hello bạn Huy, mình sẽ cố giải thích theo những gì mình hiểu. Theo mình hiểu là sự cải thiện của phần cứng không thể nào đủ nhanh để bắt kịp với phương pháp ứng dụng ước tính xác xuất theo cách ngây thơ như trên được. Ví dụ, bạn muốn viết bài essay 100 từ thì đã có lượng n-gram là 40.000 mũ 100, là một con số khổng lồ mà cần những công nghệ của tương lai như Matrioska Brain mới tải nổi. Vì vậy nên tác giả mới nói ước tính xác xuất là bất khả thi. Tác giả cũng không đề cập gì đến việc không đủ dữ liệu trong câu đó. Nhưng thường thì dữ liệu phải đầy đủ thì mới cho ra kết quả hợp lý với kỳ vọng của con người. Nếu bạn chưa cho máy dữ liệu đầy đủ thì nó sẽ chưa nhìn đủ để mã hóa những mối quan hệ tương quan giữa các từ.

Leave a Reply

Your email address will not be published. Required fields are marked *