Fitur Baru Chat GPT Memori Pribadi

Fitur Baru Chat GPT Memori Pribadi

Fitur Baru Chat GPT Memori Pribadi – Salah satu hal yang membuat frustrasi ChatGPT (dan chatbot AI generatif lainnya) adalah mereka tidak ingat apa yang kami katakan pada sesi sebelumnya. Ini berarti Anda memulai kembali setiap percakapan baru dan mengajarinya segala hal tentang Anda, bisnis Anda, atau hal lain yang Anda ingin agar ia ketahui yang tidak dapat ditemukan dalam data pelatihan atau penjelajahan web.

 

Fitur Baru Chat GPT Memori Pribadi

Fitur Baru Chat GPT Memori Pribadi

gramorokkaz – Segalanya tampak berubah. OpenAI – pencipta ChatGPT – baru-baru ini mengumumkan rencana untuk mengenangnya. Meskipun saya yakin ini akan sangat membantu jutaan orang yang menggunakannya setiap hari, hal ini juga menimbulkan masalah serius. Seberapa andalkah memori ini? Apa artinya ini dalam hal perlindungan data? Dan apakah kita siap dengan kecerdasan buatan yang dapat mengembangkan ingatan jangka panjang dan membawanya selangkah lebih dekat ke kecerdasan manusia?

Mengapa ChatGPT memerlukan memori?

Sama seperti menambahkan penelusuran web ke fitur ChatGPT tahun lalu, menambahkan memori lebih dari sekadar peningkatan bertahap. Ia dapat mengubah perilaku dan karakteristiknya dalam banyak cara.

Hingga ChatGPT menghasilkan respons, semua informasi yang dipertimbangkan berasal dari tiga sumber data: data pelatihan, masukan pengguna selama sesi saat ini, dan (jika Anda dalam mode browser) Internet.

Pembaruan ini secara efektif menambahkan sumber keempat, memori jangka panjang, yang tetap ada di antara sesi dan berisi informasi yang dapat membuat responsnya lebih berharga dalam percakapan di masa mendatang. Hal ini dapat mencakup, misalnya, nama pengguna, pekerjaan, atau kesukaan dan ketidaksukaan pribadi.

Karena memori jangka panjang ini merupakan sumber data tambahan, pengguna tidak perlu berulang kali memasukkan data ini setiap kali memulai sesi baru.

Ini berarti perintah yang tidak terlalu panjang dan bertele-tele sehingga harus dimasukkan kembali setiap sesi untuk mendapatkan hasil yang konsisten.

 

Baca juga : Tren Teknologi 2024 yang Perlu Diantisipasi

 

Jendela Konteks

Jendela Konteks adalah istilah teknis untuk informasi apa pun yang dilihat ChatGPT saat menghasilkan tanggapan. Jika Anda sudah lama berbicara dengannya dan memperhatikan bahwa ia akhirnya mulai melupakan hal-hal yang sudah Anda katakan, itu karena jendela konteksnya telah habis. GPT-4 – model ChatGPT paling kuat – berisi jendela konteks 8192 karakter.

OpenAI belum mengatakan apakah memori jangka panjang baru ini akan dimuat di jendela konteks yang ada atau apakah jendela konteks akan diperluas, yang pada dasarnya menjadikannya informasi “gratis”.

Meningkatkan jumlah data yang dapat ditangani ChatGPT dalam obrolan berarti dapat menangani tugas yang lebih lama, lebih kompleks, dan lebih detail.

Bagaimana cara ini meningkatkan AI generatif?

Memberikan memori jangka panjang pada AI generatif dapat meningkatkannya sebagai alat dalam beberapa cara:

· Artinya, AI dapat meningkatkan pembelajaran seiring waktu dengan menyimpan informasi dari interaksi masa lalu dan menggunakannya untuk memberikan informasi. percakapan di masa depan.

· Ia dapat membuat tanggapannya lebih pribadi karena ia mengenal pengguna dan memahami secara spesifik pekerjaan dan pemecahan masalah mereka.

· Kontinuitas percakapan ditingkatkan karena mengingat fakta dan informasi dari percakapan sebelumnya tanpa perlu diingatkan.

· Hal ini mendekatkan kami pada kemampuan memberikan jawaban yang menunjukkan kecerdasan emosional karena dapat menciptakan pemahaman jangka panjang terhadap respons emosional pengguna.

· Dapat meningkatkan pengambilan keputusan dengan mengingat bagaimana tindakan dan interaksi sebelumnya mempengaruhi hasil dan hasil.

Semua ini dapat membantu kita membangun hubungan yang lebih dalam dengan AI, yang pada akhirnya memungkinkan kita mengambil keputusan yang lebih baik mengenai kepercayaan.

 

Baca juga : Artificial Intelligence in Jewelry Design

 

Tapi apa yang harus kita khawatirkan?

Terlepas dari semua manfaatnya, ada juga beberapa masalah penting yang perlu diatasi. Masalah yang paling mendesak mungkin terkait dengan perlindungan data dan keamanan informasi. Karena sifat data yang ingin kita simpan, sebagian besar data baru ini adalah data pribadi – hal-hal yang bersifat spesifik bagi kita sebagai pengguna dan manusia. Misalnya, siaran pers OpenAI mengatakan bahwa alat tersebut secara aktif menghindari pengembalian data sensitif, seperti data kesehatan, kecuali jika pengguna memintanya secara khusus.

Hal ini juga dikatakan memberikan pengguna kendali yang baik atas data apa yang dapat disimpan dan data apa yang dapat dimasukkan kembali ke dalamnya untuk melatih sistem. Kedengarannya bagus, tapi kita belum melihat cara kerjanya dalam praktik. Kita hanya bisa berharap bahwa alat AI lain yang sekarang sedang terburu-buru menambah memori akan sama telitinya.

Ada juga masalah etika dalam memutuskan apa yang harus diingat atau dilupakan oleh AI. Meskipun pengguna memegang kendali, alat tersebut tetap dapat mengambil keputusan terkait data pribadi terkait orang lain.

Masalah lainnya, mungkin dalam jangka panjang, adalah bagaimana hal ini mempengaruhi cara kita menggunakan teknologi secara umum. Apakah hal ini membawa kita selangkah lebih dekat ke AGI? Memori adalah fitur penting dari kecerdasan alami manusia, dan meskipun ChatGPT selalu memiliki semacam memori—data pelatihannya dapat dianggap sebagai memori—ia mengambil lebih banyak hal, memungkinkannya mengingat hal-hal tentang manusia sebagai individu. Menerima seluruh implikasi etika dan budayanya adalah tugas yang sulit.

Bagaimanapun kita menjawab pertanyaan-pertanyaan ini, satu hal yang pasti bahwa kita akan mengingat hal ini sebagai perkembangan besar dalam sejarah kecerdasan buatan, dan sekarang tampaknya kecerdasan buatan juga akan mengalami hal yang sama.