Yapay Zeka sizin adınıza toplantılara katılabilir, kod yazabilir!

Yeni geliştirilen Yapay Zeka (YZ), kullanıcılar adına toplantılara katılabilecek ve kod yazabilecek. Ancak uzmanlar, gözden kaçan riskler olduğu konusunda uyarıda bulunuyor.

Büyütmek için resme tıklayın

Copilot adlı YZ, çevrim içi toplantılardaki sözlü diyalogları özetleyebilir, e-postalarınızın bir kısmını yanıtlayabilir, sözlü görüşmelere dayanarak belirli bir konunun lehine veya aleyhine argümanlar sunabilir, hatta bilgisayar kodu yazabilir…

Hızla gelişen bu teknoloji, bizi yapay zekanın hayatımızı kolaylaştırdığı ve insan olarak yapmak zorunda olduğumuz tüm sıkıcı ve tekrarlayan şeyleri ortadan kaldırdığı bir geleceğe daha da yaklaştıracak gibi görünüyor.

Sözü edilen ilerlemeler etkileyici ve faydalı olsa da, bu tür büyük dil modellerini (LLM'ler) kullanırken dikkatli olmalıyız. Sezgisel yapılarına rağmen, bunları etkili, güvenilir ve emniyetli bir şekilde kullanmak için hala beceri gerekl.

Büyük dil modelleri

Bir tür "derin öğrenme" sinir ağı olan LLM'ler, verilen komut istemine dayalı olarak farklı yanıtların olasılığını analiz ederek kullanıcının niyetini anlamak üzere tasarlandı. Yani, bir kişi bir komut girdiğinde, LLM metni inceler ve en olası yanıtı belirler.

LLM'nin önde gelen bir örneği olan ChatGPT, çeşitli konulardaki istemlere yanıtlar verebilir. Ancak, görünüşte bilgili yanıtlarına rağmen, ChatGPT gerçek bilgiye sahip değildir. Verdiği yanıtlar sadece mevcut soruya göre en olası sonuçlardır.

İnsanlar ChatGPT, Copilot ve diğer LLM'lere gerçekleştirmek istedikleri görevlerin ayrıntılı açıklamalarını verdiğinde, bu modeller yüksek kaliteli yanıtlar sağlama konusunda çok iyi iş çıkarabilir. Buradaki işlev; metin, görüntü veya bilgisayar kodu oluşturmayı kapsayabilir.

Yapay Zeka sizin adınıza toplantılara katılabilir, kod yazabilir!

Yapay zekaya aşırı güven neden bir sorun olabilir?

Görünüşte akıllıca yanıtlar vermelerine rağmen, LLM'lerin doğru veya güvenilir olduğuna körü körüne güvenemeyiz. Onların çıktılarını dikkatlice değerlendirmeli ve teyit etmeliyiz.

LLM çıktılarını etkin bir şekilde doğrulamak ve geçerli kılmak için konu hakkında güçlü bir bilgi birikimine sahip olmamız gerekir. Uzmanlık olmadan, ihtiyaç duyulan kalite güvencesini sağlayamayız.

Bu durum, kendi bilgi birikimimizdeki boşlukları doldurmak için LLM'leri kullandığımız durumlarda özellikle kritik hale gelir. Burada bilgi eksikliğimiz bizi çıktının doğru olup olmadığını belirleyemediğimiz bir duruma götürebilir.

Toplantılara katılmak ve tartışmayı özetlemek için yapay zeka kullanmak da güvenilirlik konusunda bariz riskler ortaya çıkarır. Toplantının kaydı bir transkripte dayanıyor olsa da, toplantı notları hala LLM'lerden gelen diğer metinlerle aynı şekilde üretilmektedir. Elde edilen metin hala dil kalıplarına ve söylenenlerin olasılıklarına dayanır, bu nedenle kullanılmadan önce doğrulanmaları gerekir.

Ayrıca bu modeller, telaffuzu aynı ancak farklı anlamlara sahip kelimeler olan sesteş kelimeler nedeniyle yorumlama sorunlarından da mustariptir. İnsanlar, konuşmanın bağlamı nedeniyle bu tür durumlarda ne demek istendiğini anlamakta iyidir.

Ancak yapay zeka bağlamdan çıkarım yapma konusunda iyi değildir ve nüansı anlamaz. Bu nedenle, potansiyel olarak hatalı bir transkripte dayanarak argümanlar formüle etmesini beklemek daha fazla sorun meydana getirir.

YZ'yi bilgisayar kodu üretmek için kullanıyorsak doğrulama daha da zordur. Bilgisayar kodunu test verileriyle test etmek, işlevselliğini doğrulamak için tek güvenilir yöntemdir. Bu, kodun amaçlandığı gibi çalıştığını gösterse de davranışının gerçek dünya senaryolarıyla uyumlu olduğunu garanti etmez.

Doğrulama ve onaylama

ChatGPT ve Copilot gibi LLM'ler hepimizin faydalanabileceği güçlü araçlar. Ancak bize verilen çıktılara körü körüne güvenmemeliyiz.

Bu teknolojiye dayalı büyük bir devrimin başındayız. Yapay zeka sonsuz olanaklara sahip; ancak şekillendirilmesi, kontrol edilmesi ve doğrulanması gerekiyor. Ve şu anda bunu yapabilecek olanlar ise yalnızca insanlar.

Bu makalenin orijinali, Creative Commons lisansı altında The Conversation’da yayınlandı. Orijinal makaleyi okumak için buraya tıklayabilirsiniz.

07 Oca 2024 - 16:00 - Bilim


göndermek için kutuyu işaretleyin

Yorum yazarak Gıda Hattı Topluluk Kuralları’nı kabul etmiş bulunuyor ve yorumunuzla ilgili doğrudan veya dolaylı tüm sorumluluğu tek başınıza üstleniyorsunuz. Yazılan yorumlardan Gıda Hattı hiçbir şekilde sorumlu tutulamaz.

Haber ajansları tarafından servis edilen tüm haberler Gıda Hattı editörlerinin hiçbir editöryel müdahalesi olmadan, ajans kanallarından geldiği şekliyle yayınlanmaktadır. Sitemize ajanslar üzerinden aktarılan haberlerin hukuki muhatabı Gıda Hattı değil haberi geçen ajanstır.