Không kiểm soát AI chặt chẽ có thể mở ra thời kỳ đen tối trong tương lai

Bùi Huyền
Một "kỷ nguyên đen tối" mới có thể sắp xảy ra nếu ngành công nghiệp trí tuệ nhân tạo không được kiểm soát chặt chẽ…
Mối nguy hiểm từ trí tuệ nhân tạo đã bắt đầu bộc lộ và bây giờ là lúc con người cần hành động.
Mối nguy hiểm từ trí tuệ nhân tạo đã bắt đầu bộc lộ và bây giờ là lúc con người cần hành động.

Mối nguy hiểm từ trí tuệ nhân tạo đã bắt đầu bộc lộ và bây giờ là lúc con người cần tạo ra luật cũng như bộ quy định dành riêng cho công nghệ đang tiến bộ nhanh chóng này, nhóm chuyên gia luật chia sẻ với Business Insider.

Chuyên gia pháp lý cảnh báo AI có thể mở ra "thời kỳ đen tối" hoặc suy thoái xã hội nếu Chính phủ các nước không phát triển chính sách kiểm soát nghiêm ngặt.

"Nếu công nghệ không phải chịu trách nhiệm, không có quy định và không bồi thường cho những người lao động bị ảnh hưởng, về cơ bản sẽ dẫn tới một thời kỳ đen tối mới", ông Frank Pasquale, Giáo sư Luật tại Trường Luật Cornell, nhận định.

"Viễn cảnh này thật đáng lo ngại", ông nói thêm.

NHIỀU VẤN ĐỀ PHÁP LÝ LIÊN QUAN TỚI CÔNG NGHỆ AI 

Dưới góc độ pháp lý, việc sử dụng tác phẩm có bản quyền để đào tạo công nghệ được cho là mối quan tâm lớn nhất hiện nay.

Nhiều tác giả, họa sĩ, phóng viên và lập trình viên đệ đơn kiện các công ty AI như OpenAI, cho rằng tác phẩm gốc của họ được sử dụng để đào tạo trí tuệ nhân tạo mà không xin phép.

Hiện tại, Hoa Kỳ chưa ban hành bộ luật liên bang thống nhất về quá trình ứng dụng AI, tuy nhiên một số tiểu bang đã thông qua luật tập trung vào AI. Quốc hội nước này cũng đang khám phá một số phương pháp điều chỉnh bộ quy định liên quan đến công nghệ trí tuệ nhân tạo.

Quy định về AI, theo Giáo sư Pasquale, có thể ngăn chặn nhiều vấn đề mở đường cho "thời đại đen tối" mà ông vừa đề cập.

"Nếu việc ‘ăn cắp chất xám’ không được bồi thường và không kiểm soát quá trình các tác phẩm bản quyền bị trưng dụng để đào tạo AI, nhiều nhà sáng tạo có thể sẽ mất tinh thần. Cuối cùng, họ sẽ mất việc vì AI thể hiện sự vượt trội một cách không công bằng", ông hận định.

Nhiều người sẽ nghĩ nội dung được AI tạo tự động với chi phí thấp rất tiện lợi, vị Giáo sư tiếp tục, "cho đến khi vỡ lẽ rằng bản thân AI phụ thuộc vào nguồn dữ liệu đầu vào từ các công trình do con người tạo ra để cải thiện và duy trì ‘kiến thức' trong thế giới đang thay đổi mỗi ngày".

"Vào thời điểm đó, có thể đã quá muộn để hồi sinh các ngành công nghiệp sáng tạo bị bỏ rơi", ông dự đoán.

ĐÃ ĐẾN LÚC CẦN ĐƯA RA QUY ĐỊNH

Ông Mark Bartholomew, Giáo sư Luật tại Đại học Buffalo, bày tỏ e ngại rằng AI trong tương lai sẽ tạo ra "quá nhiều nội dung, từ tác phẩm nghệ thuật, poster quảng cáo đến video TikTok, đến nỗi lấn át sự đóng góp của con người", nhưng hiện tại ông lo lắng hơn về việc AI được sử dụng để phân phối thông tin sai lệch, tạo ra deepfake liên quan tới vấn đề chính trị, khiêu dâm và lừa đảo bằng thủ thuật mô phỏng giọng nói.

"Ngay tại thời điểm này, năm 2024, không thể nào khẳng định được chúng ta biết chính xác cách xử lý AI", Giáo sư Bartholomew nói. Ông chia sẻ thêm rằng việc đưa ra quá nhiều quy định và quá sớm có thể kìm hãm "công nghệ mới đầy hứa hẹn". "Ý kiến cá nhân của tôi là những mối đe dọa hiện giờ vừa đủ để các bên liên quan vào cuộc và ít nhất nên đưa ra một số quy định cụ thể để đối phó với vấn đề thực sự".

Luật sở hữu trí tuệ liên quan đến vi phạm bản quyền cấp tiểu bang là một trong những khung pháp lý đang được sử dụng để kiểm soát hoạt động AI tại Hoa Kỳ.

Ông Harry Surden, Giáo sư Luật tại Trường Luật Đại học Colorado, đề xuất nên thành lập bộ luật liên bang để quản lý AI rộng rãi, nhưng không nên hành động quá vội vàng.

"Chúng ta chưa thực sự làm tốt trong việc dự đoán cách công nghệ này tiến hoá và các vấn đề phát sinh", ông Surden đồng thời đảm nhiệm vị trí Phó Giám đốc Trung tâm Tin học Pháp lý CodeX thuộc Đại học Stanford cho biết.

BÀI HỌC XƯƠNG MÁU TRONG QUÁ KHỨ 

Nếu không được kiểm soát chặt chẽ, AI có thể bị lạm dụng và trở thành vũ khí của những kẻ xấu.
Nếu không được kiểm soát chặt chẽ, AI có thể bị lạm dụng và trở thành vũ khí của những kẻ xấu.

Cả hai Giáo sư Bartholomew và Pasquale đều nhìn nhận việc thiếu quy định đối với phương tiện truyền thông xã hội kể từ những ngày đầu thành lập là bài học kinh nghiệm xương máu đối với quá trình kiểm soát AI hiện nay.

"Đó là hồi chuông cảnh báo cho các nhà lập pháp đang phụ trách xử lý công nghệ AI", Giáo sư Bartholomew nói thêm: "Chúng ta đã chờ đợi quá lâu để được đảm bảo về quyền lợi hợp pháp trên các phương tiện truyền thông xã hội, và điều này gây ra một số vấn đề thực sự nghiêm trọng”.

Giáo sư Pasquale nói rằng khi phương tiện truyền thông xã hội lần đầu tiên xuất hiện, mọi người đã không lường trước được "nó có thể bị lạm dụng và vũ khí hóa bởi những kẻ xấu".

"Chúng ta đã nhìn thấy tiền lệ khá đáng buồn về hậu quả của việc thiếu các quy định cần thiết đối với phương tiện truyền thông xã hội", ông nói.

Chuyên gia Surden hồi tưởng lại các cuộc thảo luận ban đầu liên quan đến quy định về mạng xã hội "phần lớn không dự đoán đúng vấn đề trọng tâm mà người dùng lo lắng ngày nay". Những vấn đề bao gồm cách các nền tảng ảnh hưởng đến sức khỏe tâm thần của nhóm người dùng trẻ tuổi và truyền bá thông tin sai lệch.

"Vì vậy, đây là một bài học tương tự dành cho AI. Chúng ta chắc chắn có thể nhận định các vấn đề đang hiện hữu, bao gồm quyền riêng tư, thiên vị, độ chính xác", ông khẳng định. "Nhưng chúng ta nên khiêm tốn về khả năng dự đoán về hướng phát triển công nghệ, vì chúng ta thường khá tệ trong việc phán đoán chi tiết các tác động xã hội của công nghệ đối với tương lai con người".