Biyernes, Oktubre 25, 2024

AI chatbox, dahilan ng suicide? (Pangsiyam sa balitang nagpatiwakal)

AI CHATBOX, DAHILAN NG SUICICE?
(PANGSIYAM SA BALITANG NAGPATIWAKAL)
Maikling sanaysay at tula ni Gregorio V. Bituin Jr.

Ikasiyam na balitang nabasa ko hinggil sa pagpapatiwakal mula Setyembre 20 hanggang ngayong Oktubre 25, 2024. Bagamat sinasabi sa isang balita sa Inquirer na ang pagpapatiwakal ng isang 14-1nyos na kabataan ay naganap noon pang Pebrero. Subalit kakaiba ito. 

Isang robot ang nambuyo sa isang batang 14-anyos upang magpakamatay ang bata. Ayaw nang mabuhay ang bata sa tunay na mundo.

Kaya isinakdal ng nanay ng nagpatiwakal na bata ang AI chatbox company dahil ito ang dahilan ng pagpapakamatay ng bata. Ang pamagat nga ng balita ay "Mother sues AI chatbot company over son's suicide", Inquirer, Octunre 25, 2024, pahina B6.

Narito ang isang talata subalit mahabang balita:

A Florida mother has sued artificial intelligence chatbot startup Character.AI accusing it of causing her 14-year-old son's suicide in February, saying he became addicted to the company's service and deeply attached to a chatbot it created. In a lawsuit filed Tuesday in Orlando, Florida federal court, Megan Garcia said Character.AI targeted her son, Sewell Setzer, with "anthropomorphic, hypersexualized, and frighteningly realistic experiences". She said the company programmed its chatbot to "misrepresent itself as a real person, a licensed psychotherapist, and an adult lover, ultimately resulting in Sewell's desire to no longer live outside" of the world created by the service. The lawsuit also said he expressed thoughts of suicide to the chatbot, which the chatbot repeatedly brought up again. "We are heartbroken by the tragic loss of one of our users and want to express our deepest condolences to the family," Character.AI said in a statement. It said it had introduced new safety features including pop-ups directing users to the National Suicide Prevention Lifeline if they express thoughts of self-harm, and would make changes to "reduce the likelihood of encountering sensitive or suggestive content" for users under 18. - REUTERS.

Ito naman ang malayang salin sa Filipino ng nasabing balita upang mas magagap ng ating mga kababayan ang ulat:

Idinemanda ng isang nanay sa Florida ang artificial intelligence chatbot startup na Character.AI na inaakusahan itong naging sanhi ng pagpapakamatay ng kanyang 14 na taong gulang na anak noong Pebrero, na nagsasabing naging gumon ang anak sa serbisyo ng kumpanya at malalim na inugnay ng anak ang sarili nito sa isang chatbot na nilikha ng nasabing kumpanya. Sa isang kasong isinampa noong Martes (Oktubre 22) sa Orlando, Florida federal court, sinabi ni Megan Garcia na pinuntirya ng Character.AI ang kanyang anak, si Sewell Setzer, ng "anthropomorphic, hypersexualized, at nakakatakot na makatotohanang mga karanasan". Sinabi niyang pinrograma ng kumpanya ang chatbot nito upang "mHindi tunay na katawanin ang sarili bilang isang tunay na tao, isang lisensyadong psychotherapist, at isang adultong mangingibig, na sa huli'y nagbunga upang hindi na naisin ni Sewell na mabuhay sa labas (o sa  totoong mundo)" kundi sa mundong nilikha ng nasabing kumpanya. Sinabi rin sa pagsasakdal na ipinahayag ng bata ang saloobing magpakamatay sa chatbot, na inuulit-ulit muli ng chatbot. "Nalulungkot kami sa trahedyang pagkawala ng isa sa aming gumagamit at nais naming ipahayag ang aming pinakamalalim na pakikiramay sa pamilya," sabi ni Character.AI sa isang pahayag. Sinabi nitong nag-introdyus ito ng bagong feature na pangkaligtasan kabilang ang mga pop-up na nagdidirekta sa mga gumagamit sa National Suicide Prevention Lifeline kung nagpapahayag sila ng mga saloobing saktan ang sarili, at gagawa sila ng mga pagbabago upang "bawasan ang posibilidad na makatagpo ng sensitibo o nagpapahiwatig na nilalaman" para sa mga gumagamit na wala pang 18 taong gulang. - REUTERS.

PAGNINILAY

Bakit nangyayari ang gayong pagpapatiwakal? Naiibang kasong ayaw nang mabuhay sa tunay na daigdig? Ang nanay ba niya, o pamilya ng bata'y hindi siya mahal? Kaya ibang daigdig ang kinawilihan?

Naiibang kaso, kaya isa rin ito sa dapat pagtuunan ng pansin kung paano maiiwasan ang pagpapakamatay.

Sa talaan sa loob ng 36 na araw ay ikasiyam ito sa aking nabasa hinggil sa mga nagpatiwakal. Tingnan natin ang ibang ulat:

(1) 16-anyos na estudyante, tumalon mula sa 7th flr. ng Tenement, Dedbol, pahayagang Bulgar, Setyembre 20, 2024
(2) Tserman, nagbaril sa ulo sa Brgy. Hall, pahayagang Bulgar, Setyembre 20, 2024
(3) Bebot, tumalon sa tulay, patay, pahayagang Bulgar, Setyembre 26, 2024
(4) Kolehiyala, 'Di Naka-Graduate, Nagbigti, pahayagang Bulgar, Setyembre 27, 2024
(5) Tatay, Nagbigti, Dedo, pahayagang Bulgar, Oktubre 7, 2024
(6) Napagalitan ng ina, 14-anyos, adik sa ML, nagbigti, patay, pahayagang Bulgar, Oktubre 16, 2024
(7) Kolehiyala, Tumalon sa MRT footbridge, patay, headline sa pahayagang Pang-Masa, at nasa pahina 2 ng pahayagang Bulgar, Oktubre 19, 2024
(8) PWD, Tumalon sa Pasig River, Dedo, pahayagang Bulgar, Oktubre 24, 2024, p.2
at (9) Mother sues AI chatbox company over son's suicide, mula sa Inquirer, Oktubre 25, 2024, sa pamamagitan ng ulat ng Reuters

Isa itong kakaibang kaso, kaya dapat aralin din ng mga kinauukulan ang ganito upang hindi na ito maulit. Bagamat nangyari iyon sa Florida sa Amerika, hindi mapapasubaliang maaaring mangyari ito sa ating bansa. Bagamat mayroon na tayong Mental Health Law o Republic Act 11036, at may nakasalang ding panukalang batas na Youth Suicide Prevention Act o Senate Bill No. 1669, ay maidagdag ang pagtugon hinggil sa nasabing kaso ng batang nagpakamatay dulot ng AI.

NAGPAKAMATAY DULOT NG AI.CHATBOX

ang AI.Chatbox ba ang nambuyong magpatiwakal
sa isang labing-apat na anyos na kabataan?
balitang pagpakamatay niya'y nakagigimbal
tila nambuyo'y robot? bakit nangyari ang ganyan?

kinasuhan na ng nanay ang nasabing kumpanya
nang magumon dito ang nagpakamatay na bata
AI, bata'y inuto? sige, magpakamatay ka!
nangyari ang di inaasahan, siya'y nawala

sa AI chatbox nga'y nagumon na ang batang ito
nawiling mabuhay sa loob ng Character.AI
ayaw nang mabuhay ng bata sa totoong mundo
nabuyo (?) ng AI kaya bata'y nagpakamatay

kaybata pa niya upang mangyari ang ganoon
anong dapat gawin upang di na maulit iyon?

10.25.2024

Walang komento:

Mag-post ng isang Komento

No right turn, di agad makita

NO RIGHT TURN, DI AGAD MAKITA natatakpan ng haligi ang karatula "no right turn on red signal" , di agad makita buti kung ang drayb...