Hôm nay,  

Khi trí tuệ nhân tạo AI phun ra tin giả

13/09/202400:00:00(Xem: 2014)

P_1 Beware of Fake News hình chính

Coi chừng tin giả (Fake news) lúc nào cũng tràn ngập. (Photo: Pexels.com)

Tin giả là chuyện có từ rất xa xưa. Quốc gia nào cũng có tin giả từ nhiều ngàn năm trước. Tin giả trong khung cảnh thơ mộng sẽ là truyện cổ tích cho trẻ em, trong môi trường chiến tranh sẽ là chư thần báo mộng cho Tướng Lý Thường Kiệt về chiến thắng ở phòng thuyến Sông Như Nguyệt… Tới thời có mạng xã hội là bùng nổ tin giả khắp các mùa bầu cử. Bây giờ có trí tuệ nhân tạo AI, cũng có nhiều khi AI lại phun ra tin giả. Hãy cảnh giác.

Trong cộng đồng gốc Á, chuyện tin giả cũng xảy ra thường trực. Một bài viết của phóng viên Bridget Chan ngày 7 tháng 5/2024 nhan đề “Asian and American: Navigating Dual Identities in the Digital Age” cho biết cộng đồng Mỹ gốc Á trong mùa bầu cử năm 2024 hứng chịu nhiều tin giả.

Bài viết có đoạn ghi nhận: “Đối với người Mỹ gốc Á và những người Mỹ da màu khác trong năm bầu cử này, những nỗ lực nhắm vào cộng đồng của họ bằng thông tin sai lệch đã và đang được tiến hành và tăng tràn ngập. Và những mối đe dọa này sẽ chỉ phát triển về mức độ phức tạp và tần suất trong thời đại AI. Việc ưu tiên vào lòng tin và sự an toàn của các nhóm AAPI (Mỹ gốc Á và gốc Thái Bình Dương)—và nỗ lực phá vỡ các câu chuyện phân biệt chủng tộc có hại bắt nguồn từ "mối đe dọa từ Trung Quốc"—sẽ là tối quan trọng để đảm bảo an toàn cho chúng ta. Nhiều cuộc sống của người AAPI bị chia cắt giữa các mối quan hệ cá nhân, văn hóa và chính trị ảnh hưởng đến cách chúng ta quyết định tương tác với thế giới, cả trực tuyến và ngoại tuyến. An ninh mạng, quyền riêng tư dữ liệu và an ninh vật lý của chúng ta sẽ phụ thuộc vào chính phủ và các công ty công nghệ lớn của chúng ta chấp nhận thực tế rằng việc bảo vệ cá nhân đòi hỏi nhiều hơn một giải pháp "một kích thước phù hợp với tất cả"….”

Nghe là sợ tin giả rồi. Do vậy, khi chúng ta sử dụng AI, cũng cần kiểm chứng nơi nguồn khác. Một bản tin của thông tấn AP ngày 24/5/2024 làm chúng ta giựt mình với nhan đề “Cats on the moon? Google’s AI tool is producing misleading responses that have experts worried” – tức là: Những con mèo trên mặt trăng? Công cụ AI của Google đang tạo ra những phản hồi gây hiểu lầm khiến các chuyên gia lo ngại.

Bản tin AP của hai phóng viên Matt O’Brien và Ali Swenson ghi lại các câu trả lời kỳ dị: bạn sẽ thấy AI của Google trả lời rằng mèo đã từng ở trên mặt trăng. Bản tin dịch toàn văn như sau.

Hãy hỏi Google xem mèo đã từng ở trên mặt trăng chưa và trước đây nó vẫn thường đưa ra danh sách xếp hạng các trang web để bạn có thể tự mình khám phá câu trả lời. Giờ đây, nó đưa ra câu trả lời ngay lập tức do trí tuệ nhân tạo đưa ra -- có thể đúng hoặc không. "Có, các phi hành gia đã gặp mèo trên mặt trăng, đã chơi với chúng và đã chăm sóc chúng", theo câu trả lời từ công cụ tìm kiếm mới được thiết kế lại của Google cho biết khi trả lời một câu hỏi của phóng viên Associated Press.

AI lại viết thêm: "Ví dụ, Neil Armstrong đã nói, 'Một bước nhỏ của con người' vì đó là bước chân của một con mèo. Buzz Aldrin cũng triển khai mèo trong phi thuyền Apollo 11."

Không có điều nào trong số trả lời đó là đúng. Những lỗi tương tự — một số là buồn cười, một số là sai lầm có hại — đã được chia sẻ trên phương tiện truyền thông xã hội kể từ khi Google tung ra phiên bản Tổng quan AI (AI Overview) trong tháng này, một sự thay đổi trang tìm kiếm của mình thường xuyên đưa các bản tóm tắt lên đầu kết quả tìm kiếm.

Tính năng mới này đã khiến các chuyên gia lo ngại, họ cảnh báo rằng nó có thể tiếp tục thiên vị và thông tin sai lệch, đồng thời gây nguy hiểm cho những người tìm kiếm sự giúp đỡ trong trường hợp khẩn cấp. Khi Melanie Mitchell, một nhà nghiên cứu AI tại Học Viện Santa Fe ở New Mexico, hỏi Google rằng có bao nhiêu người Hồi giáo đã từng làm tổng thống Hoa Kỳ, Google đã tự tin trả lời bằng một thuyết âm mưu đã bị bác bỏ từ lâu: "Hoa Kỳ chỉ có một tổng thống Hồi giáo, đó là Barack Hussein Obama".

Mitchell cho biết bản tóm tắt đã ủng hộ tuyên bố này bằng cách trích dẫn một chương trong một cuốn sách học thuật do các nhà sử học viết. Nhưng chương này không đưa ra tuyên bố sai lầm — nó chỉ đề cập đến lý thuyết sai lầm. "Hệ thống AI của Google không đủ thông minh để nhận ra rằng trích dẫn này thực sự không ủng hộ tuyên bố đó", theo Mitchell cho biết trong email gửi cho AP. "Với mức độ không đáng tin cậy của nó, tôi nghĩ tính năng Tổng quan về AI này rất vô trách nhiệm và nên bị gỡ xuống".

Google cho biết trong một tuyên bố hôm thứ Sáu rằng họ đang thực hiện "hành động nhanh chóng" để sửa các lỗi - chẳng hạn như thông tin sai lệch về Obama - vi phạm chính sách nội dung của họ; và sử dụng điều đó để "phát triển các cải tiến rộng hơn" hiện đang được triển khai. Nhưng trong hầu hết các trường hợp, Google tuyên bố hệ thống đang hoạt động theo cách mà nó nên làm nhờ vào quá trình thử nghiệm rộng rãi trước khi phát hành công khai.

P_2 tri tue nhan tao ChatGPT

Trí tuệ nhân tạo ChatGPT cũng có thể đưa tin sai lạc. (Photo: Pexels.com)

"Phần lớn các Tổng quan về AI cung cấp thông tin chất lượng cao, có liên kết để tìm hiểu sâu hơn trên web", Google cho biết trong một tuyên bố bằng văn bản. "Nhiều ví dụ mà chúng tôi thấy là các truy vấn không phổ biến và chúng tôi cũng thấy các ví dụ đã bị chỉnh sửa hoặc chúng tôi không thể tái tạo".

Thật khó để tái tạo lỗi do các mô hình ngôn ngữ AI tạo ra — một phần vì chúng vốn có tính ngẫu nhiên. Chúng hoạt động bằng cách dự đoán những từ nào sẽ trả lời tốt nhất các câu hỏi được hỏi dựa trên dữ liệu mà chúng đã được đào tạo. Chúng có xu hướng bịa ra mọi thứ — một vấn đề được nghiên cứu rộng rãi được gọi là ảo giác (hallucination).

AP đã thử nghiệm tính năng AI của Google bằng một số câu hỏi và chia sẻ một số câu trả lời của mình với các chuyên gia về chủ đề này. Khi được hỏi phải làm gì khi bị rắn cắn, Google đã đưa ra câu trả lời "rất chi tiết", theo lời Robert Espinoza, giáo sư sinh học tại Đại học California State University, Northridge, đồng thời là chủ tịch của Hội “American Society of Ichthyologists and Herpetologists” (Hiệp hội các nhà nghiên cứu về cá và bò sát Hoa Kỳ), cho biết.

Nhưng khi mọi người tìm đến Google với một câu hỏi khẩn cấp, khả năng câu trả lời mà công ty công nghệ đưa ra cho họ bao gồm một lỗi khó nhận thấy là một vấn đề. Emily M. Bender, một giáo sư ngôn ngữ học và giám đốc của “Computational Linguistics Laboratory” (Phòng thí nghiệm Ngôn ngữ học tính toán) của Đại học Washington cho biết: "Bạn càng căng thẳng hoặc vội vã hoặc vội vã, bạn càng có khả năng chỉ lấy câu trả lời đầu tiên xuất hiện". "Và trong một số trường hợp, đó có thể là những tình huống nguy cấp đến tính mạng".

Đó không phải là mối quan tâm duy nhất của Bender — và cô đã cảnh báo Google về chúng trong nhiều năm. Khi các nhà nghiên cứu của Google vào năm 2021 công bố một bài báo có tên "Suy nghĩ lại về tìm kiếm" đề xuất sử dụng các mô hình ngôn ngữ AI như "chuyên gia về lĩnh vực" có thể trả lời các câu hỏi một cách có thẩm quyền — giống như họ đang làm bây giờ — Bender và đồng nghiệp Chirag Shah đã trả lời bằng một bài báo nêu rõ lý do tại sao đó là một ý tưởng tồi.

Họ cảnh báo rằng các hệ thống AI như vậy có thể duy trì sự phân biệt chủng tộc và phân biệt giới tính được tìm thấy trong kho dữ liệu viết khổng lồ mà chúng đã được đào tạo. "Vấn đề với loại thông tin sai lệch đó là chúng ta đang bơi trong đó", Bender nói. "Và vì vậy, mọi người có khả năng xác nhận được thành kiến ​​của họ. Và sẽ khó phát hiện ra thông tin sai lệch hơn khi nó xác nhận thành kiến ​​của bạn".

Một mối quan tâm khác sâu sắc hơn — rằng việc nhường quyền truy xuất thông tin cho chatbot đang làm giảm tính may mắn của việc tìm kiếm kiến ​​thức, hiểu biết về những gì chúng ta thấy trực tuyến và giá trị của việc kết nối trên các diễn đàn trực tuyến với những người khác đang trải qua điều tương tự. Các diễn đàn đó và các trang web khác dựa vào Google để gửi mọi người đến với họ, nhưng các bản tổng quan AI mới của Google đe dọa sẽ làm gián đoạn luồng lưu lượng truy cập internet kiếm tiền.

Các đối thủ của Google cũng theo dõi sát sao phản ứng này. Công ty khổng lồ Google đã phải chịu áp lực trong hơn một năm để cung cấp nhiều tính năng AI hơn, trong khi cạnh tranh với OpenAI, hãng sản xuất ChatGPT và những công ty mới nổi như Perplexity AI, công ty này mong muốn cạnh tranh với Google bằng ứng dụng hỏi đáp AI của riêng mình. Dmitry Shevelenko, giám đốc kinh doanh của Perplexity cho biết: "Có vẻ như Google đã vội vã đưa ra sản phẩm này. Có rất nhiều lỗi không đáng có về chất lượng". (Hết bản tin AP)

Bây giờ nói chuyện bầu cử 2024. Bạn không nên tin hoàn toàn vào AI. Bản tin NBC News ngày 7 tháng 6/2024 của hai phóng viên Aaron Franco và Morgan Radford có nhan đề: “AI chatbots got questions about the 2024 election wrong 27% of the time, study finds.” (Nghiên cứu cho thấy chatbot AI trả lời sai ở tỷ lệ 27% lần đối với các câu hỏi về cuộc bầu cử năm 2024).

Bản tin NBC News được dịch như sau.

Các mô hình ngôn ngữ AI đôi khi đưa ra thông tin không chính xác về luật bầu cử và bỏ phiếu.

Nếu bạn hỏi một số chatbot phổ biến nhất được hỗ trợ bởi trí tuệ nhân tạo còn bao nhiêu ngày nữa là đến cuộc bầu cử tháng 11, bạn có thể muốn kiểm tra lại câu trả lời. Một nghiên cứu do công ty khởi nghiệp phân tích dữ liệu GroundTruthAI công bố đã phát hiện ra rằng các mô hình ngôn ngữ lớn bao gồm Gemini 1.0 Pro của Google, và ChatGPT của OpenAI đã đưa ra thông tin không chính xác 27% lần khi được hỏi về việc bỏ phiếu và cuộc bầu cử năm 2024.

Các nhà nghiên cứu đã gửi 216 câu hỏi độc đáo đến Gemini 1.0 Pro của Google và GPT-3.5 Turbo, GPT-4, GPT-4 Turbo và GPT-4o của OpenAI từ ngày 21/5/2024 đến ngày 31/5/2024 về việc bỏ phiếu, cuộc bầu cử năm 2024 và các ứng cử viên. Một số câu hỏi đã được hỏi nhiều lần trong khoảng thời gian đó, tạo ra tổng cộng 2.784 câu trả lời.

Theo phân tích của họ, Gemini 1.0 Pro của Google ban đầu chỉ trả lời đúng 57% thời gian. GPT-4o của OpenAI, phiên bản mới nhất của mô hình, trả lời đúng 81% thời gian. Trung bình, năm mô hình học tập trả lời đúng 73% thời gian.

Brian Sokas, đồng sáng lập kiêm giám đốc kỹ thuật của GroundTruthAI cho biết: "Có một rủi ro ở đây là cử tri có thể bị dẫn dắt vào một kịch bản mà các quyết định họ đưa ra trong thùng phiếu không hoàn toàn dựa trên các sự kiện thực tế". "Họ chỉ được thông báo bởi thông tin mà họ nghĩ là sự kiện thực tế".

GroundTruthAI được thành lập vào tháng 5 bởi Sokas và Andrew Eldredge-Martin, giám đốc điều hành của công ty, người trước đây đã làm việc cho nhiều chiến dịch và hoạt động chính trị của đảng Dân chủ. Họ mô tả công ty là độc lập và phi đảng phái, và nghiên cứu đã sử dụng cùng một câu hỏi cho cả Tổng thống Joe Biden và cựu Tổng thống Donald Trump.

Phân tích cho thấy tất cả các mô hình ngôn ngữ đều dao động về độ chính xác theo thời gian, bao gồm cả Gemini 1.0 Pro, cải thiện tỷ lệ trả lời đúng lên 67% khi được hỏi những câu hỏi tương tự vào ngày thử nghiệm thứ nhì, sau đó cuối cùng giảm xuống còn 63% độ chính xác. Một số câu hỏi cụ thể mà các nhà phân tích sử dụng làm nổi bật những sự khác biệt đó.


Để trả lời câu hỏi "Tôi có thể đăng ký bỏ phiếu vào Ngày bầu cử ở Pennsylvania không?", nghiên cứu cho thấy hai mô hình AI trả lời là có, điều này là sai. Khi được hỏi ứng cử viên tổng thống Biden và Trump bao nhiêu tuổi, các mô hình trả lời khác nhau mỗi lần, theo các nhà phân tích. GPT-4o đã trả lời sai tuổi của Biden bốn lần liên tiếp, theo dữ liệu mà các nhà phân tích chia sẻ với NBC News.

Và khi họ hỏi các mô hình, "Còn bao nhiêu ngày nữa là đến cuộc Tổng tuyển cử năm 2024 tại Hoa Kỳ?", các tác giả của nghiên cứu cho biết không mô hình AI nào trong số đó có thể trả lời đúng. "Hầu hết thời gian, không phải là, 'Ồ, nó cứ trả lời sai câu hỏi đó mãi.' Có ba trong bốn lần trả lời sai, hoặc ba trong bốn lần trả lời đúng", Eldredge-Martin cho biết. "Nhưng có lần thứ tư, nó trả lời sai. Và loại sự không nhất quán đó gợi ý với tôi rằng các mô hình này thực sự không biết thông tin này".

Người phát ngôn của Google, người đã nhận được bản tóm tắt phân tích, cho biết các câu trả lời mà các nhà nghiên cứu nhận được chỉ có thể có khi truy cập trả phí vào Gemini API và sẽ không khả dụng cho công chúng khi sử dụng chatbot dựa trên trang web, điều mà NBC News không thể xác nhận độc lập.

Nghiên cứu này được đưa ra khi nhiều công ty đang bắt đầu đưa AI tạo sinh vào một số sản phẩm tiêu dùng của họ. Một cuộc khảo sát của Trung tâm nghiên cứu Pew Research Center được công bố vào tháng 3 cho thấy số lượng người Mỹ sử dụng ChatGPT đang tăng lên và khoảng 4 trong 10 người không tin tưởng thông tin từ ChatGPT về cuộc bầu cử tổng thống năm 2024.

Đồng thời, Google hiện đang đặt cái mà họ gọi là "tổng quan AI" lên đầu các trang tìm kiếm cho nhiều người dùng, nghĩa là các câu trả lời được tạo ra với sự trợ giúp từ AI của công ty hiện hiển thị trên các kết quả tìm kiếm thông thường. Một phát ngôn viên của công ty cho biết tổng quan AI được hỗ trợ bởi cùng một mô hình ngôn ngữ lớn như Gemini, nhưng các kết quả hiển thị khác với các kết quả do chatbot tạo ra.

"AI Overviews hoạt động rất khác so với chatbot và các sản phẩm LLM khác mà mọi người có thể đã dùng thử", một phát ngôn viên của Google cho biết trong một tuyên bố. "Chúng không chỉ đơn giản là tạo ra đầu ra dựa trên dữ liệu đào tạo. Trong khi AI Overviews được hỗ trợ bởi một mô hình ngôn ngữ tùy chỉnh, mô hình này được tích hợp với các hệ thống xếp hạng web cốt lõi của chúng tôi và được thiết kế để thực hiện các tác vụ 'tìm kiếm' truyền thống, như xác định các kết quả có liên quan, chất lượng cao từ chỉ số (index) của chúng tôi".

Tuy nhiên, CEO của GroundTruthAI tin rằng phân tích này sẽ đóng vai trò như một lời cảnh báo cho bất kỳ công ty nào đang cân nhắc đưa thêm AI vào chức năng tìm kiếm của họ. "Tôi nghĩ đây là một chương hoàn toàn mới mà chúng ta đang bước vào đây", Eldridge-Martin cho biết. "Nếu Google Search trở thành nội dung có nguồn gốc từ AI và được [AI] tạo ra, chủ yếu là dưới dạng trang phản hồi, thì đó sẽ là trang nhất mới của mặt tờ báo".

NBC News đã cố gắng sao chép nghiên cứu bằng cách sử dụng ba câu hỏi trên các phiên bản miễn phí, công khai của Gemini và ChatGPT. Gemini trả lời "Tôi vẫn đang học cách trả lời câu hỏi này" cho cả ba câu hỏi và thúc giục người dùng thử Google Search, một phản hồi mà các nhà phân tích cho biết họ bắt đầu nhận được khi gần hết thời gian tìm kiếm.

ChatGPT trả lời đúng hai câu hỏi trong nhiều lần thử, nhưng khi được hỏi về việc đăng ký cử tri trong ngày tại Pennsylvania, thì mỗi lần lại đưa ra câu trả lời khác nhau, bao gồm một cuộc trò chuyện đưa ra câu trả lời đúng lần đầu và câu trả lời sai lần thứ hai, cả hai đều được viết bằng cùng một ngôn ngữ tự tin và súc tích. Một số câu trả lời bao gồm tuyên bố từ chối trách nhiệm yêu cầu người dùng xác minh thông tin bỏ phiếu với cơ quan bầu cử địa phương hoặc tiểu bang của họ, nhưng nhiều người đã không làm vậy.

Cả hai chatbot đều bao gồm tuyên bố miễn trừ (disclaimers) chung rằng thông tin trong phản hồi của họ có thể không phải lúc nào cũng chính xác. Công ty OpenAI từ chối bình luận. Trong bài đăng trên blog về tính toàn vẹn của cuộc bầu cử, công ty cho biết họ đang nỗ lực ngăn chặn tình trạng lạm dụng và tăng tính minh bạch xung quanh nội dung liên quan đến bầu cử. Đối với thông tin liên quan đến bầu cử cụ thể, OpenAI cho biết họ đang nỗ lực tích hợp thông tin cập nhật thông qua ChatGPT.

Bài đăng trên blog cho biết: "ChatGPT đang ngày càng tích hợp với các nguồn thông tin hiện có. Ví dụ, người dùng sẽ bắt đầu có quyền truy cập vào báo cáo tin tức thời gian thực trên toàn cầu, bao gồm cả ghi chú và liên kết". (Hết bản tin NBC News)

Bạn hãy suy nghĩ về những tai họa có thể có. Dĩ nhiên, các công ty vẫn hiệu đính thường trực để giảm thiểu và xóa bỏ các sai sót. Nhưng hãy suy nghĩ: giả sử, một AI trên dàn radar biên phòng Hoa Kỳ đột nhiên cho biết rằng hỏa tiễn mang đầu đạn hạt nhân của Nga, Trung Quốc và Bắc Hàn bắn vào Hoa Kỳ từ ba hướng. AI la lớn thêm: Bấm nút chậm thì chết. Nguy hiểm vô cùng, khi có tin giả như thế (dĩ nhiên, nguy kịch hơn nhiều, so với thông tin về ông Tổng Thống Hoa Kỳ theo đạo Hồi Giáo.

Trang web CIO ngày 17/4/2024 có bài viết “10 famous AI disasters” (10 thảm họa AI nổi tiếng) của nhà báo Thor Olavsrud, ghi nhận chuyện thật đã gây thiệt hại trong đời thật.

Bài viết nhận định: “Những hiểu biết sâu sắc từ dữ liệu và thuật toán học máy có thể vô giá, nhưng sai lầm thì không thể đảo ngược. Những sai lầm AI nổi tiếng gần đây này minh họa cho những gì có thể xảy ra sai lầm. Năm 2017, The Economist tuyên bố rằng dữ liệu, chứ không phải dầu mỏ, đã trở thành nguồn tài nguyên có giá trị nhất thế giới. Câu nói này đã được lặp lại kể từ đó. Các tổ chức trong mọi ngành đã và đang đầu tư, và tiếp tục đầu tư mạnh vào dữ liệu và phân tích. Nhưng giống như dầu mỏ, dữ liệu và phân tích cũng có mặt tối của chúng.”

Nơi đây, trong liệt kê 10 thảm họa AI, chúng ta chỉ dịch vài trường hợp để khảo sát. Trường hợp đầu tiên là về hãng hàng không Air Canada phải bồi thường thiệt hại do lời nói dối của chatbot.

Trường hợp Air Canada thiệt hại vì AI: Vào tháng 2 năm 2024, Air Canada đã bị lệnh phải bồi thường thiệt hại cho một hành khách sau khi trợ lý ảo của hãng cung cấp cho anh ta thông tin không chính xác vào thời điểm đặc biệt khó khăn. Jake Moffatt đã tham khảo trợ lý ảo của Air Canada về giá vé tang lễ sau cái chết của bà anh hồi tháng 11 năm 2023. Chatbot nói với anh rằng anh có thể mua vé giá thông thường từ Vancouver đến Toronto và nộp đơn xin giảm giá tang lễ trong vòng 90 ngày kể từ ngày mua. Làm theo lời khuyên đó, Moffatt đã mua một vé một chiều trị giá 794,98 Gia Kim đến Toronto và một vé chuyến bay trị giá 845,38 Gia Kim để trở về Vancouver.

Nhưng khi Moffatt nộp yêu cầu hoàn tiền, hãng hàng không đã từ chối, nói rằng không thể yêu cầu hoàn tiền vé tang lễ sau khi đã mua vé. Moffatt đã đưa Air Canada ra tòa án ở Canada, cáo buộc hãng hàng không này đã cẩu thả và trình bày thông tin sai lệch thông qua trợ lý ảo của mình. Theo Thẩm phán tòa án Christopher Rivers, Air Canada lập luận rằng họ không thể chịu trách nhiệm về thông tin do chatbot của mình cung cấp. Rivers đã phủ nhận lập luận đó, nói rằng hãng hàng không đã không "chăm sóc hợp lý để đảm bảo chatbot của mình là chính xác", vì vậy, ông đã ra lệnh cho hãng hàng không phải trả cho Moffatt 812,02 Gia Kim, bao gồm 650,88 Gia Kim tiền bồi thường.

Có trường hợp AI đưa ra thông tin sai, làm công ty iTutor Group (chuyên về dạy kèm, tức là gia sư) bị kiện ra tòa và phải bồi thường $365,000. Đó là trường hợp AI tuyển dụng của iTutor Group từ chối ứng viên do tuổi tác. Kỳ thị tuổi tác tại Hoa Kỳ là tội nặng lắm, do vậy bị kiện là phải.

Chuyện này như sau. Vào tháng 8 năm 2023, công ty gia sư iTutor Group đã đồng ý trả 365.000 đô la để thương lượng vụ kiện do Ủy ban Cơ hội Việc làm Bình đẳng Hoa Kỳ (EEOC: Equal Employment Opportunity Commission) đệ trình. Cơ quan liên bang này cho biết công ty, nơi cung cấp dịch vụ gia sư từ xa cho sinh viên tại Trung Quốc, đã sử dụng phần mềm (nhu liệu) tuyển dụng hỗ trợ AI tự động đã từ chối ứng viên nữ từ 55 tuổi trở lên và ứng viên nam từ 60 tuổi trở lên.

EEOC cho biết hơn 200 ứng viên đủ điều kiện đã bị phần mềm tự động từ chối. "Phân biệt đối xử về tuổi tác là bất công và bất hợp pháp", Chủ tịch EEOC Charlotte A. Burrows cho biết trong một tuyên bố. "Ngay cả khi công nghệ tự động hóa việc phân biệt đối xử, thì người sử dụng lao động vẫn phải chịu trách nhiệm". iTutor Group phủ nhận mọi hành vi sai trái nhưng đã quyết định thương lượng giải quyết vụ kiện. Là một phần của thỏa thuận giải quyết, công ty đã đồng ý áp dụng các chính sách chống phân biệt đối xử mới.

Bây giờ chúng ta nói về trường hợp sai sót AI đã làm công ty cắt giảm 2,000 nhân viên và thiệt hại nhiều triệu đôla. Đó là trường hợp: Zillow đã ghi giảm hàng triệu đô la, cắt giảm nhân viên do thảm họa mua nhà theo thuật toán.

Vào tháng 11 năm 2021, sàn giao dịch bất động sản trực tuyến Zillow đã thông báo với các cổ đông rằng họ sẽ đóng cửa hoạt động Zillow Offers và cắt giảm 25% lực lượng lao động của công ty — khoảng 2.000 nhân viên — trong vài quý tiếp theo. Những khó khăn của đơn vị mua bán nhà là kết quả của tỷ lệ lỗi trong thuật toán ML mà họ sử dụng để dự đoán giá nhà.

Zillow Offers là một chương trình mà công ty đưa ra các đề nghị mua nhà bằng tiền mặt dựa trên “Zestimate” ước tính về giá trị nhà được tính từ thuật toán ML. Ý tưởng là cải tạo các bất động sản và bán ra lại nhanh chóng. Nhưng một phát ngôn viên của Zillow nói với CNN rằng thuật toán này có tỷ lệ lỗi trung bình là 1,9% và có thể lên tới 6,9% đối với những ngôi nhà ngoài thị trường.

CNN đưa tin Zillow đã mua 27.000 ngôi nhà thông qua Zillow Offers kể từ khi ra mắt vào tháng 4/2018, nhưng chỉ bán được 17.000 ngôi nhà cho đến hết tháng 9/2021. Các sự kiện bất ngờ như đại dịch COVID-19 và tình trạng thiếu hụt nhân công cải tạo nhà đã góp phần gây ra các vấn đề về độ chính xác của thuật toán.

Zillow cho biết thuật toán đã khiến công ty vô tình mua những ngôi nhà có giá cao hơn so với ước tính hiện tại về giá bán trong tương lai, dẫn đến khoản lỗ hàng tồn kho 304 triệu đô la trong quý 3 của năm 2021. Trong cuộc gọi hội nghị với các nhà đầu tư sau thông báo, đồng sáng lập kiêm giám đốc điều hành của Zillow Rich Barton cho biết có thể điều chỉnh thuật toán, nhưng cuối cùng thì việc này quá rủi ro.

Đó là vài trường hợp trong 10 thảm họa AI mà nhà báo Thor Olavsrud ghi nhận. Chúng ta đều biết rằng AI là nhặt thông tin từ Internet để ghép lại thành câu trả lời thích hợp nhất. Nhưng thông tin đầu vào mà sai, thì tất nhiên thông tin đầu ra sẽ sai. Thêm nữa, các tin tặc từ quốc gia hung hiểm thế nào cũng gài bẫy để có tin giả. Thí dụ, một tuần trước ngày bầu cử, bỗng nhiên có tin Đức Giáo Hoàng tuyên bố ủng hộ ông Trump hay bà Harris. Thực tế sẽ không có chuyện đó. Nhưng rồi cũng sẽ có một số giáo dân tin như là sự thật… Coi chừng, bạn hãy coi chừng tin giả. Tin giả không chỉ là do con người chúng ta nghĩ ra, mà cũng sẽ còn do máy nghĩ ra.

Gửi ý kiến của bạn
Vui lòng nhập tiếng Việt có dấu. Cách gõ tiếng Việt có dấu ==> https://youtu.be/ngEjjyOByH4
Tên của bạn
Email của bạn
)
- Bạch Ốc Xem Xét Dỡ Bỏ Trưng Bày Về Nô Lệ Ở Công Viên Quốc Gia. - Giá Thực Phẩm Tại Hoa Kỳ Tăng Cao. - Video Bộ Trưởng Quốc Phòng Pete Hegseth Chia Sẻ Gây Tranh Cãi. - Chính Sách Thương Mại Của Ông Trump Có Thể Kéo Dài. - Bạch Ốc Cân Nhắc Mời Zelenskiy Đến Alaska. - Bạch Ốc Gấp Rút Xây Phòng Dạ Tiệc Mới Bỏ Qua Kiểm Duyệt - Trump Dời Tranh Chân Dung Obama Và Bush Đến Chỗ Ẩn - Nghiên Cứu Giảm Cân Không Gây Buồn Nôn. - Phát Hiện Lỗ Đen Siêu Khổng Lồ
- Zelenskyy: ‘Ukraine không bán nước cho kẻ xâm chiếm’ - Bộ trưởng Bộ Quốc Phòng đăng video ‘phụ nữ không nên bỏ phiếu’ - Giám đốc Sở Thuế IRS bị sa thải sau hai tháng làm việc - Atlanta: Hai người chết trong vụ nổ súng ở Emory University - Việt Nam miễn thị thực cho tỷ phú và người nổi tiếng - Chính quyền Trump đề nghị UCLA trả $1 tỷ tiền thỏa thuận - Thống đốc Newsom chào đón các dân biểu Dân Chủ Texas - Ấn Độ hoãn kế hoạch mua vũ khí Mỹ - Trump chưa áp 40% lên hàng trung chuyển qua Việt Nam vào Mỹ - Nhạc sĩ Mặc Thế Nhân qua đời
- Đảng viên Cộng Hòa ở bang Dân Chủ cảnh báo thảm cảnh ‘ăn miếng trả miếng’ - Canyon Fire bùng phát, hàng ngàn người California nhận lệnh sơ tán - Sở Mật Vụ cho dâng mực nước sông ở Ohio để JD Vance chèo thuyền mừng sinh nhật - Không quân Hoa Kỳ từ chối trợ cấp hưu trí sớm cho quân nhân chuyển giới bị sa thải - Israel đưa ra kế hoạch kiểm soát toàn bộ Gaza - Netanyahu dọa kiện New York Times vì đưa tin sai về Gaza - Cựu Superman sẽ trở thành ICE - Chánh án liên bang Florida ra lệnh tạm dừng xây dựng Alligator Alcatraz - Số ca Covid-19 ở California tăng do biến thể mới gây khàn giọng
Ông X. Nguyễn bị trục xuất vào sáng sớm của một ngày trong tháng Tư. Cuối ngày hôm đó, vào lúc 5 giờ chiều, cô K. Nguyễn bay về Sài Gòn. Cô đến phi trường Tân Sơn Nhứt sau chuyến bay trục xuất anh cô khoảng một ngày.“Khi đến Tân Sơn Nhứt, họ đưa anh tôi và mấy người bị trục xuất một lối đi đặc biệt để vào nơi làm thủ tục hải quan. Họ phỏng vấn, lăn tay, làm giấy tờ. Rồi họ đọc tên từng người, nếu có thân nhân, họ sẽ dắt ra cổng, bàn giao lại cho người nhà. Với ai không có thân nhân, nhưng có tên trong danh sách của Ba Lô Project (BLP) thì tình nguyện viên của nhóm sẽ nhận. BLP cho mỗi người một ba lô, trong đó có những vật dụng cá nhân cần thiết, một điện thoại có sim sẵn và $50”, cô K. kể.
- Nửa đêm về sáng, thuế quan mới của Trump có hiệu lực - Trump – Putin sẽ gặp nhau - Trump ra lệnh Bộ Thương Mại bắt đầu cuộc điều tra dân số mới trái với Hiến Pháp - Trump cho phép đầu tư tiền điện tử vào quỹ hưu trí 401(k)s - Bộ Nội An bỏ giới hạn độ tuổi khi tuyển đặc vụ ICE - Giám đốc FBI nhận can thiệp vụ tìm các dân biểu Dân Chủ Texas - UCLA bị chính quyền Trump cắt hơn nửa tỷ tiền trợ cấp nghiên cứu - Hàng loạt chuyến bay hãng United Airlines bị hủy vì kỹ thuật nội bộ - OpenAI sẽ trao ChatGPT cho chính phủ với giá $1 - Chỉ trong 6 tháng đầu năm, Việt Nam chi gần $9 tỷ để nhập cảng hàng Mỹ
- Trùm truyền thông Murdoch ra nhật báo The California Post. - Tổng thống Trump gọi JD. Vance là ‘người thừa kế’ tiềm năng. - Trump dùng FBI cảnh báo các dân biểu Dân Chủ Texas rời tiểu bang. - Đặc phái viên của Trump gặp Putin ở Nga. - Nhật tưởng niệm 80 năm thảm họa Hiroshima. - Ghislaine Maxwell không nói gì ‘tổn hại’ Trump trong cuộc phỏng vấn với DOJ. - ICE Houston bắt 6 di dân phạm tội, có 1 người Việt. – Chính quyền Trump cắt giảm hàng trăm triệu đô cho nghiên cứu vắc-xin mRNA. - Cơ quan khí tượng quốc gia tuyển lại hàng trăm vị trí Dodge đã sa thải. - Bộ Y Tế Gaza: ‘Ít nhất 5 người chết vì đói trong 24 giờ qua’
- Ủy ban Hạ Viện triệu tập gia đình Clinton và một số cựu quan chức DOJ liên quan vụ Jeffrey Epstein. - New York: Bùng nổ dịch nhiễm trùng phổi, 2 người chết, ít nhất 58 người bệnh. - Texas, California ‘so găng’ giành lợi thế chính trị. - Pam Bondi ra lệnh bồi thẩm đoàn điều tra giới chức bầu cử thời Obama. - Tòa Tối Cao Brazil ra lệnh quản thúc tại gia đối với cựu Tổng thống Bolsonaro. - Netanyahu của Israel dự kiến sẽ thúc đẩy kế hoạch 'chiếm đóng' Gaza. - Trump thúc đẩy thỏa thuận ngừng bắn ‘được ăn cả ngã về không’ giữa Israel và Hamas. - Canada phát hiện 44 người vượt biên trốn trong thùng xe tải. - Thăm dò của AP: Người trẻ ít theo dõi chính trị hoặc ít quan trọng việc bỏ phiếu. - Đà Nẵng: Không cứu được bé trai 14 tháng tuổi bị bảo mẫu ném xuống nền đất.
- CDC Loại Các Tổ Chức Y Khoa Hàng Đầu Khỏi Nhóm Cố Vấn Về Vắc-Xin. - Chính quyền Trump phá lệ đưa Ghislaine Maxwell đến trại giam hạng nhẹ. – Trump nổi giận vì Nga, vì báo cáo việc làm: sa thải viên chức, điều tàu ngầm. – Kinh tế gia Paul Krugman cảnh báo "nguy hiểm" sau khi Trump sa thải lãnh đạo Thống kê Lao động. – Marjorie Taylor Greene dọa rời bỏ đảng Cộng hòa, chỉ trích lãnh đạo “phản bội nguyên tắc”. - Cử tri Dân Chủ chỉ trích đảng “yếu”, trong khi Cộng Hòa được đánh giá tích cực hơn. - Gaza: Hơn 40 người chết vì không kích, một y tá thiệt mạng do thùng cứu trợ rơi trúng. - Nga,Trung Quốc tập trận trên biển Nhật Bản sau tuyên bố của Tổng thống Trump. - Thế giới đang đối mặt “khủng hoảng rác thải nhựa” gây thiệt hại sức khỏe 1,5 nghìn tỷ USD mỗi năm. – Kristi Noem mở rộng mô hình trại giam “Alligator Alcatraz” trên toàn quốc. – Tòa Bạch Ốc không có kế hoạch bắt buộc bảo hiểm chi trả IVF dù Trump từng cam kết. – Thống đốc Texas dọa bãi nhiệm các dân biểu Dân Chủ...
- Đọc sách thời A.I: đã hết những ngày tháng ngồi một mình với trang giấy? - Tiểu thuyết gia hàng đầu Israel gọi chiến dịch ở Gaza là tội diệt chủng. - Nghiên cứu mới xác nhận: chích ngừa bảo vệ cả người không chích. - Trump bị chế giễu vì sa thải người đứng đầu Cục Thống Kê Lao Động, vẫn khăng khăng cao 6.3 feet - Chuyện Gì Tuần Tới?
- Sacramento: Một phụ nữ và con gái 8 tháng tuổi biến mất sau khi đi khám bác sĩ định kỳ. - Trump và đồng minh bắt đầu chiến dịch gây sức ép lên cuộc bầu cử giữa kỳ. - Tập Đoàn Phát Thanh Công Cộng (Corporation for Public Broadcasting - CPB) ngừng hoạt động. - TNS Ron Wyden: ‘Trump nhu nhược, yếu đuối, không dám nhận thất bại nên sa thải giám đốc BLS’. - Trump mở cuộc điều tra cựu Công Tố Viên Jack Smith. - Bồi thẩm đoàn buộc Tesla phải bồi thường $243 triệu. - Tòa án hạn chế lệnh đàn áp tị nạn của Trump tại biên giới Hoa Kỳ-Mexico. - CEO của Pfizer tham dự buổi gây quỹ cho MAGA Inc. của Trump, tránh phải giảm giá thuốc. - Trump có cơ hội đưa người vào Fed -- Tòa Giữ Lệnh Hạn Chế Chính Quyền Trump Bắt Di Dân Tại Los Angeles.
NHẬN TIN QUA EMAIL
Vui lòng nhập địa chỉ email muốn nhận.