Tại sao các công ty lớn trên thế giới cấm hoặc hạn chế nhân viên sử dụng ChatGPT?

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

(Baonghean.vn) - Bất chấp những ưu điểm vượt trội của nó, một số công ty lớn đã ban hành lệnh cấm hoặc hạn chế nhân viên của họ sử dụng ChatGPT. Vậy đâu là nguyên nhân dẫn đến những quyết định đó?

Kể từ khi ra mắt vào cuối tháng 11 năm ngoái, ChatGPT - chatbot được hỗ trợ bởi trí tuệ nhân tạo (AI) do công ty OpenAI (Mỹ) phát triển đã trở thành một hiện tượng thu hút sự quan tâm ngày càng lớn của người dùng trên khắp thế giới.

Anh minh hoa.jpg
Ảnh minh hoạ.

Theo một nghiên cứu của ngân hàng đa quốc gia lớn nhất trên toàn cầu UBS (Thuỵ Sĩ), ChatGPT đã trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử. Người dùng ChatGPT đã cán mốc con số 100 triệu người vào cuối tháng 1/2023 chỉ sau 2 tháng ra mắt. Trong khi đó, để đạt được con số này, TikTok đã mất khoảng 9 tháng sau khi ra mắt toàn cầu, còn Instagram mất tới 2,5 năm.

Các nhà phân tích tại UBS cho rằng: “Trong 20 năm theo dõi sự phát triển của Internet, chúng tôi chưa ghi nhận một phần mềm nào có tốc độ phát triển người dùng nhanh như vậy”.

Mặc dù hiện tại nhiều nhân viên của các công ty trên thế giới đang sử dụng ChatGPT của OpenAI để viết mã, xâu dựng tài liệu tiếp thị và soạn giáo án để tiết kiệm thời gian và tăng năng suất. Nhưng một số công ty lớn đang hạn chế nhân viên của mình sử dụng chatbot AI này.

Trong khi một số công ty đang thuê nhân viên có chuyên môn về ChatGPT, thì những công ty khác lại hạn chế tích hợp AI vào quy trình làm việc của nhân viên vì những lo ngại về quyền riêng tư đối với việc cung cấp dữ liệu bí mật về công nghệ.

Rốt cuộc, những lo ngại về quyền riêng tư đã trở thành một trở ngại lớn đối với nhà phát triển OpenAI. Vào cuối tháng 6 vừa qua, một vụ kiện tập thể đã được đệ trình lên Uỷ ban thương mại liên bang Mỹ (FTC) nhằm chống lại nhà sản xuất ChatGPT với lý do công ty đã đánh cắp “một lượng lớn dữ liệu cá nhân” để đào tạo ChatGPT.

Vụ kiện tuyên bố rằng, OpenAI, công ty sở hữu chatbot đình đám ChatGPT đã “bí mật” sử dụng dữ liệu độc quyền để đào tạo các mô hình ngôn ngữ lớn của mình để cho chatbot AI của họ có thể trò chuyện như con người.

5 lý do chính khiến nhiều công ty lớn trên thế giới đưa ra các hạn chế sử dụng ChatGPT.

1. Rò rỉ dữ liệu

ChatGPT yêu cầu một lượng lớn dữ liệu để đào tạo và vận hành hiệu quả . Chatbot đã được đào tạo bằng cách sử dụng lượng dữ liệu khổng lồ có được từ internet và nó sẽ tiếp tục được đào tạo.

Theo Trang trợ giúp của OpenAI, mọi phần dữ liệu, bao gồm chi tiết bí mật của khách hàng, bí mật thương mại và thông tin kinh doanh nhạy cảm mà bạn cung cấp cho chatbot đều có thể được các huấn luyện viên của nó xem xét, những người có thể sử dụng dữ liệu của bạn để cải thiện hệ thống của họ.

Nhiều công ty phải tuân theo các quy định bảo vệ dữ liệu nghiêm ngặt. Do đó, họ thận trọng trong việc chia sẻ dữ liệu cá nhân với các thực thể bên ngoài, vì điều này làm tăng nguy cơ rò rỉ dữ liệu.

Bên cạnh đó, OpenAI không cung cấp bất kỳ sự đảm bảo bảo mật và bảo vệ dữ liệu hoàn hảo nào. Vào tháng 3 năm 2023, OpenAI đã xác nhận một lỗi cho phép một số người dùng xem tiêu đề trò chuyện trong lịch sử của những người dùng đang hoạt động khác. Mặc dù lỗi này đã được sửa nhưng công ty không đảm bảo tính an toàn và quyền riêng tư của dữ liệu người dùng.

Nhiều tổ chức đang chọn hạn chế nhân viên sử dụng ChatGPT để tránh rò rỉ dữ liệu, điều này có thể gây tổn hại đến danh tiếng của họ, dẫn đến tổn thất tài chính và khiến khách hàng cũng như nhân viên của họ gặp rủi ro.

2. Rủi ro an ninh mạng

Mặc dù chưa rõ liệu ChatGPT có thực sự dễ gặp rủi ro an ninh mạng hay không, nhưng có khả năng việc triển khai ChatGPT trong một tổ chức có thể tạo ra các lỗ hổng tiềm ẩn mà những kẻ tấn công mạng có thể khai thác.

Nếu một công ty tích hợp ChatGPT và có điểm yếu trong hệ thống bảo mật của chatbot, những kẻ tấn công có thể khai thác lỗ hổng để xâm nhập hệ thống. Ngoài ra, khả năng tạo phản hồi giống con người của ChatGPT là con gà đẻ trứng vàng cho những kẻ tấn công lừa đảo có thể chiếm đoạt tài khoản hoặc mạo danh các thực thể hợp pháp để lừa nhân viên công ty chia sẻ thông tin nhạy cảm.

3. Tạo chatbot được cá nhân hóa

Mặc dù có các tính năng sáng tạo, ChatGPT có thể tạo ra thông tin sai lệch và gây hiểu nhầm. Do đó, nhiều công ty đã tạo ra các chatbot AI cho mục đích công việc. Chẳng hạn, Ngân hàng Commonwealth của Úc đã yêu cầu nhân viên của mình sử dụng Gen.ai, một chatbot trí tuệ nhân tạo sử dụng thông tin của CommBank để đưa ra câu trả lời.

Các công ty như Samsung và Amazon đã phát triển các mô hình ngôn ngữ tự nhiên tiên tiến, vì vậy các doanh nghiệp có thể dễ dàng tạo và triển khai các chatbot được cá nhân hóa dựa trên bảng điểm hiện có. Với các chatbot nội bộ này, bạn có thể ngăn chặn các hậu quả pháp lý và uy tín liên quan đến việc xử lý sai dữ liệu.

4. Thiếu các quy định pháp lý

Trong những ngành mà các công ty phải tuân theo các giao thức và lệnh trừng phạt theo quy định, việc ChatGPT thiếu hướng dẫn theo quy định là một dấu hiệu đáng báo động. Nếu không có các điều kiện pháp lý chính xác chi phối việc sử dụng ChatGPT, các công ty có thể phải đối mặt với những hậu quả pháp lý nghiêm trọng khi sử dụng chatbot AI cho hoạt động của mình.

Ngoài ra, việc thiếu quy định có thể làm giảm trách nhiệm giải trình và tính minh bạch của công ty. Hầu hết các công ty có thể bối rối trong việc giải thích các quy trình ra quyết định của mô hình ngôn ngữ AI và các biện pháp bảo mật cho khách hàng của họ.

Các công ty đang hạn chế ChatGPT vì lo ngại khả năng vi phạm luật về quyền riêng tư và các quy định cụ thể của ngành.

5. Sử dụng vô trách nhiệm của nhân viên

Ở nhiều công ty, một số nhân viên chỉ dựa vào phản hồi ChatGPT để tạo nội dung và thực hiện nhiệm vụ của họ. Điều này tạo ra sự lười biếng trong môi trường làm việc và kìm hãm sự sáng tạo và đổi mới.

Việc phụ thuộc vào AI có thể cản trở khả năng tư duy phản biện của nhân viên. Nó cũng có thể gây tổn hại đến uy tín của công ty vì ChatGPT thường cung cấp dữ liệu không chính xác và không đáng tin cậy.

Mặc dù ChatGPT là một công cụ mạnh mẽ nhưng việc sử dụng nó để giải quyết các truy vấn phức tạp đòi hỏi kiến thức chuyên môn cụ thể có thể làm hỏng hoạt động và hiệu quả của công ty. Một số nhân viên có thể không nhớ kiểm tra thực tế và xác minh các câu trả lời do chatbot AI cung cấp, coi các câu trả lời là một giải pháp phù hợp với tất cả.

Để giảm thiểu những vấn đề như thế này, các công ty đang cấm chatbot để nhân viên có thể tập trung vào nhiệm vụ của họ và cung cấp các giải pháp không có lỗi cho người dùng.

Những công ty lớn trên nào trên thế giới đã áp đặt các hạn chế đối với ChatGPT

1. Gã khổng lồ công nghệ Apple (Mỹ)

Theo một tài liệu nội bộ được tờ Thời báo phố Wall (The Wall Street Journal) công bố cho biết, vào tháng 5 vừa qua, Apple đã hạn chế nhân viên của mình sử dụng ChatGPT và các công cụ AI khác như GitHub CoPilot, một công cụ của Microsoft giúp tự động viết mã.

Nhà sản xuất iPhone đã trích dẫn những lo ngại rằng việc sử dụng các chatbot AI như ChatGPT có thể dẫn đến khả năng rò rỉ dữ liệu bí mật.

2. Nhà cung cấp dịch vụ âm nhạc trực tuyến Spotify (Thuỵ Điển)

Theo tờ Financial Times (Mỹ), Spotify đã thông báo hạn chế nhân viên của mình sử dụng ChatGPT. Động thái này được đưa ra sau khi Spotify xóa hàng chục nghìn bài hát do một công cụ tạo nhạc bằng AI có tên là Boomy tạo ra.

Đây được xem là một phần trong nỗ lực bảo vệ tiền bản quyền của các nghệ sĩ sau khi Universal Music Group, một tập đoàn âm nhạc đa quốc gia đã gửi đơn khiếu nại tới nền tảng phát nhạc trực tuyến rằng có “hoạt động phát trực tuyến đáng ngờ” trên các bài hát của Boomy.

Đại diện của Spotify cho biết “phát trực tuyến nhân tạo”, tức là sử dụng chatbot đóng giả người để tăng lượng phát trực tuyến và số lượng khán giả của các bài hát, là một vấn đề nghiêm trọng của toàn ngành mà công ty đang nỗ lực giải quyết.

3. Công ty viễn thông Verizon (Mỹ)

Gã khổng lồ viễn thông Verizon đã thông báo rằng, nhân viên không thể truy cập ChatGPT từ các hệ thống công ty để tránh nguy cơ mất quyền kiểm soát thông tin khách hàng và mã nguồn.

Verizon cũng đã ban hành các hạn chế đối với ChatGPT để kiểm soát việc lan truyền dữ liệu nhạy cảm. Giám đốc truyền thông của Verizon - Raquel Wilson cho biết ưu tiên hàng đầu của họ là cộng đồng, khách hàng, nhà đầu tư/cổ đông và xã hội, Verizon sẽ cân nhắc kỹ lưỡng trước khi sử dụng một công nghệ mới nổi như ChatGPT.

4. Công ty dịch vụ tài chính đa quốc gia Wells Fargo (Mỹ)

Wells Fargo đã đưa ra các hạn chế đối với nhân viên của mình trong việc sử dụng ChatGPT để tránh các vấn đề về quyền riêng tư với các nhà cung cấp phần mềm của bên thứ ba.

Người phát ngôn của Wells Fargo đã xác nhận với tờ Forbes rằng, họ đang “áp đặt giới hạn sử dụng” đối với chatbot ChatGPT của OpenAI và đang nghiên cứu các giải pháp “an toàn và hiệu quả” để triển khai công nghệ mới này trên toàn công ty.

5. Gã khổng lồ công nghệ Samsung (Hàn Quốc)

Samsung tuyên bố hạn chế nhân viên của mình sử dụng ChatGPT sau khi công ty biết rằng một số nhân viên của họ đã tải mã nhạy cảm lên chatbot.

Trong một bản ghi nhớ gửi qua email cho nhân viên vào cuối tháng 4 vừa qua, gã khổng lồ công nghệ Hàn Quốc đã thông báo với các nhân viên của mình cẩn thận khi sử dụng ChatGPT, khuyến khích họ không nhập thông tin cá nhân hoặc thông tin công ty riêng tư vào chatbot.

Samsung hiện đang phát triển công cụ AI riêng để nhân viên sử dụng trong việc phát triển phần mềm, dịch thuật và tổng hợp tài liệu.

6. Ngân hàng tư nhân Deutsche Bank (Đức)

Ngân hàng tư nhân lớn nhất của Đức đã cấm nhân viên của mình sử dụng ChatGPT tại nơi làm việc để ngăn dữ liệu bí mật của họ bị rò rỉ.

Mặc dù Deutsche Bank cho phép một số nhân viên của mình sử dụng các công cụ AI cho “mục đích kinh doanh hợp pháp” kể từ tháng 2 vừa qua, nhưng công ty đang “tích cực khám phá” cách thức các công cụ AI tạo sinh như ChatGPT có thể được sử dụng bởi người lao động một cách an toàn.

Kevin King, giám đốc truyền thông của Deutsche Bank cho biết: “Mặc dù AI tạo sinh như ChatGPT đang phát triển, nhưng việc giới hạn mức sử dụng đối với một số nhóm làm việc và nhân viên nhất định cho phép chúng tôi xác định cách thức và thời điểm sử dụng tốt nhất các công nghệ đang phát triển nhanh chóng này”.

7. Tập đoàn dịch vụ tài chính JPMorgan Chase (Mỹ)

JPMorgan Chase đã ban hành lệnh cấm sử dụng ChatGPT tạm thời đối với nhân viên của mình vào tháng 2 vừa qua. Động thái này được coi là một phần trong nỗ lực nhằm tuân thủ chính sách của công ty trong việc hạn chế sử dụng phần mềm của bên thứ ba.

8. Công ty công nghệ đa quốc gia Amazon (Mỹ)

Sau khi Amazon phát hiện một số câu trả lời của ChatGPT giống với dữ liệu nội bộ công ty vào đầu năm nay, Amazon đã cảnh báo các nhân viên không cung cấp cho chatbot bất kỳ thông tin bí mật nào của công ty.

Luật sư của Amazon cho biết thông tin người dùng nhập vào có thể làm dữ liệu huấn luyện ChatGPT và Amazon không muốn câu trả lời của nó trùng khớp hoặc bao gồm thông tin mật của họ. Người phát ngôn của Amazon - Adam Montgomery nói công ty có các biện pháp để các nhân viên có thể sử dụng AI trong quy trình làm việc của họ, bao gồm quy định về cách truy cập các dịch vụ AI tạo sinh của bên thứ ba và bảo vệ thông tin bí mật.

9. Tập đoàn truyền thông iHeartMedia (Mỹ)

Để bảo vệ dữ liệu của mình và ngăn chặn các đối thủ cạnh tranh nắm giữ dữ liệu đó, iHeartMedia đã hạn chế nhân viên của mình sử dụng ChatGPT trên tất cả các thiết bị của Tập đoàn.

Trong một bản ghi nhớ được công bố vào tháng 6 vừa qua, Bob Pittman, Giám đốc điều hành của iHeartMedia và Rich Bressler, Giám đốc tài chính của iHeartRadio đã nhắn nhủ đến nhân viên không được phép tham gia, phát triển, tiết lộ dữ liệu nhạy cảm cho ChatGPT hay công cụ AI khác mà không có sự hướng dẫn từ cấp trên. Hành động này sẽ đảm bảo tính bảo mật và không làm tổn hại đến bản thân, đối tác, thông tin của công ty và dữ liệu người dùng.

10. Tập đoàn hàng không vũ trụ và quốc phòng Northrop Grumman (Mỹ)

Northrop Grumman là một trong những tập đoàn quốc phòng lớn nhất ở Mỹ, là đơn vị chịu trách nhiệm sản xuất các tàu sân bay hạt nhân lớp Nimitz cho hải quân nước này đã cấm nhân viên của mình sử dụng ChatGPT để bảo vệ dữ liệu độc quyền của mình.

Trao đổi với tờ Wall Street Journal vào tháng 3 vừa qua, Northrop Grumman tuyên bố sẽ không chia sẻ dữ liệu độc quyền của mình với bên thứ ba cho đến khi các công cụ AI như ChatGPT được bảo đảm an toàn khi sử dụng.

11. Tập đoàn Ngân hàng Citigroup (Mỹ)

Citigroup đã thêm ChatGPT vào danh sách phần mềm của bên thứ ba bị cấm sử dụng vào tháng 2 vừa qua, tuy nhiên sau đó lệnh cấm đã được dỡ bỏ đối với một số nhân viên. Người đứng đầu bộ phận kỹ thuật số tại Citigroup - Stuart Riley cho biết, công ty đã tạo ra một môi trường được kiểm soát và giám sát để các nhân viên sử dụng ChatGPT với dữ liệu công khai. Hiện Tập đoàn đang xây dựng và xem xét hàng trăm trường hợp sử dụng để tìm ra cách AI có thể được áp dụng trên toàn Tập đoàn.

12. Ngân hàng đa quốc gia Bank of America (Mỹ)

Kể từ tháng 2 năm nay, Bank of America đã cấm nhân viên của mình sử dụng ChatGPT cho mục đích kinh doanh và tuyên bố rằng công nghệ mới nổi như ChatGPT phải được xem xét trước khi có thể áp dụng tại ngân hàng cho mục đích kinh doanh.

Bank of America là một trong nhiều ngân hàng thực hiện các biện pháp tuân thủ nghiêm ngặt hơn đối với thông tin liên lạc nội bộ sau khi các cơ quan quản lý Mỹ phạt hơn 2 tỉ USD vì không giám sát việc nhân viên sử dụng các ứng dụng nhắn tin trái phép như WhatsApp.

13. Ngân hàng đầu tư đa quốc gia Goldman Sachs (Mỹ)

Goldman Sachs đã hạn chế nhân viên sử dụng ChatGPT để tránh các vấn đề tuân thủ xung quanh việc sử dụng phần mềm của bên thứ ba đồng thời thúc đẩy việc đầu tư phát triển các công cụ AI của riêng mình.

Dinesh Gupta, trưởng bộ phận kỹ thuật AI tại Goldman Sachs cho biết, công ty có các chuyên gia ngôn ngữ tự nhiên và kỹ sư mô hình ngôn ngữ lớn (LLM) đang nghiên cứu về việc ứng dụng AI vào tự động hóa quy trình làm việc.

14. Công ty cung cấp dịch vụ và thiết bị viễn thông Calix (Mỹ)

Hồi tháng 4 vừa qua, ông Michael Weening, Giám đốc điều hành của Calix có trụ sở tại bang California (Mỹ) thông báo công ty này sẽ cấm sử dụng ChatGPT tại tất cả bộ phận và các thiết bị của mình. Ông cho biết, vụ rò rỉ dữ liệu vào thời gian đó của Samsung là nguyên nhân dẫn tới lệnh cấm này.

Ông Weening cho biết thêm: “Thật đáng lo ngại khi ChatGPT có thể tiết lộ những thông tin nhạy cảm như bản ghi nhớ nội bộ bí mật hoặc hợp đồng bảo mật với khách hàng cho người ngoài”./.

Tin mới