DOLAR 34,3122 0.21%
EURO 37,2200 -0.48%
ALTIN 3.017,79-0,07
BITCOIN 23894300,39%
Denizli
18°

AÇIK

12:53

ÖĞLE'YE KALAN SÜRE

Yapay zeka, iş gücünü tehdit ediyor!

Yapay zeka, iş gücünü tehdit ediyor!

ABONE OL
1 Şubat 2024 11:36
Yapay zeka, iş gücünü tehdit ediyor!
0

BEĞENDİM

ABONE OL

Uzmanından kritik altyapılarda yapay zeka tehlikesine karşı uyarı!

Yapay zeka, iş gücünü tehdit ediyor!

Yapay zeka gelişiminin etik, toplumsal ve ekonomik sonuçlarını dikkate almanın değerine işaret eden uzmanlar, otomasyon ve yapay zekanın, muhakkak dallarda işsizliğe neden olabileceğini söylüyor.

Yapay zeka sistemleri kritik altyapıya daha fazla entegre epey, siber taarruz ve makûs niyetli kullanım riskinin de arttığını vurgulayan Prof. Dr. Burhan Pektaş, “Kişisel bilgilerinizi toplumsal medyada ve öbür çevrimiçi platformlarda paylaşma konusunda dikkatli olun.” ihtarında bulundu.

Üsküdar Üniversitesi Mühendislik ve Tabiat Bilimleri Fakültesi (MDBF) Dekan Yardımcısı, Bilgisayar Mühendisliği (İng) Kısmı Lideri Prof. Dr. Burhan Pektaş, yapay zeka ve bilişim hataları konusunu kıymetlendirdi.

Yapay zekanın gelecekteki gelişimi belirsiz…

Yapay zekanın (AI) gelecekteki gelişiminin epey bilinmeyen olduğunu söz eden Prof. Dr. Burhan Pektaş, şunları lisana getirdi:

“Ancak bilim topluluğunun yapay zekanın geleceğini tartışırken dikkate aldığı çeşitli eğilimler ve potansiyel senaryolar var. Örnek vermek gerekirse; yapay zekanın vakitle daha karmaşık ve yetenekli hale gelmesi mümkündür. Makine tahsili, hudut ağları ve öteki yapay zeka teknolojilerindeki ilerlemeler, karmaşık vazifeleri daha yüksek verimlilik ve doğrulukla gerçekleştirebilen sistemlere yol açabilir.”

Gizlilik meseleleri ve mümkün berbata kullanımla ilgili kaygılar var!

Yapay zeka teknolojileri ilerledikçe etik konular, saklılık problemleri ve mümkün berbata kullanımla ilgili tasalar ve tartışmaların artacağına da işaret eden Prof. Dr. Burhan Pektaş, “Yapay zeka sistemlerinin sorumlu bir halde geliştirilmesini ve konuşlandırılmasını sağlamak için bilim topluluğunun ve siyaset yapıcıların bu zorlukları ele alması gerekecektir. Yapay zekanın sıhhat ve eğitimden ulaşım ve cümbüşe kadar günlük hayatın çeşitli istikametlerine daha fazla entegre olması bekleniyor. Bu entegrasyon, verimliliğin ve rahatlığın artmasını sağlayabilir lakin tıpkı vakitte toplumsal tesirler ve işten çıkarmalarla ilgili soruları da gündeme getirir.” dedi.

Yapay zeka işsizliğe neden olabilir mi?

Yapay zekanın pek çok yarar sağlama potansiyeline sahipken tıpkı vakitte tasaları ve potansiyel riskleri de beraberinde getirdiğini anlatan Prof. Dr. Burhan Pektaş, şunları lisana getirdi:

“Yapay zeka gelişiminin etik, toplumsal ve ekonomik sonuçlarını dikkate almak kıymetlidir. Otomasyon ve yapay zeka, belli dallarda işlerin yerinden edilmesine yol açarak potansiyel olarak ekonomik aksamalara ve işsizliğe neden olabilir. Bu değerli bir kaygı kaynağıdır ve işgücüne yine marifet kazandırma ve yeni iş fırsatları yaratma eforları hayati kıymet taşıyacaktır.

Yapay zeka sistemleri, kendilerini eğitmek için kullanılan bilgilerde mevcut olan önyargıları devralabilir ve bu da adil olmayan yahut ayrımcı sonuçlara yol açabilir. Düzgün bir formda ele alınmazsa, bu önyargı mevcut toplumsal eşitsizlikleri güçlendirebilir ve işe alma, borç verme ve ceza adaleti üzere alanlarda adil olmayan muameleye yol açabilir.

Yapay zeka sistemleri kritik altyapıya daha fazla entegre hayli, siber hücum ve berbat niyetli kullanım riski de artıyor. Bilgisayar korsanları, dataları manipüle etmek, hizmetleri kesintiye uğratmak ve hatta otonom araçlar yahut endüstriyel sistemler kelam konusu olduğunda fizikî ziyana neden olmak için yapay zeka sistemlerindeki güvenlik açıklarından yararlanabilir.”

Yapay zeka siber güvenlik savunmalarını geliştirmek için güçlü bir araç olabilir

Yapay zeka (AI) teknolojilerinin siber güvenlik üzerinde ikili bir tesirinin olduğunu lisana getiren Prof. Dr. Burhan Pektaş, “Yapay zeka, bir yandan siber güvenlik savunmalarını geliştirmek, tehdit algılamayı otomatikleştirmek ve olaylara müdahaleyi düzgünleştirmek için güçlü bir araç olabilir. Öte yandan siber hatalılar, daha karmaşık ve maksada yönelik akınlar geliştirmek için yapay zekadan potansiyel olarak yararlanabilirler.” dedi.

Prof. Dr. Burhan Pektaş, yapay zekanın siber güvenliği ve siber kabahatleri etkileme yollarından kimilerini şöyle sıraladı:

“Hedefli ataklar: Siber hatalılar, son derece şahsileştirilmiş ve ikna edici içeriğe sahip gaye odaklı kimlik avı kampanyaları üzere daha karmaşık ve maksatlı taarruzlar gerçekleştirmek için potansiyel olarak yapay zekayı kullanabilir.

Otomatik suistimaller: Yapay zeka, güvenlik açıklarını belirleme ve bunlardan yararlanma sürecini otomatikleştirerek saldırganların operasyonlarını ölçeklendirmesini kolaylaştırabilir.”

Yapay zeka tabanlı tespit sistemlerini manipüle etmek için teknikler kullanılabilir

Saldırganların, tespit düzeneklerinden kaçabilecek rakip girdiler sunarak yapay zeka tabanlı tespit sistemlerini manipüle etmek için teknikler kullanabileceğini anlatan Prof. Dr. Burhan Pektaş, “Siber hatalılar, güvenlik sistemleri tarafından kullanılan savunma sistemlerini incelemek ve bunlara ahenk sağlamak için yapay zekayı kullanabilir, bu da onların taktiklerini iddia etmeyi ve bunlara karşı koymayı daha güç hale getirebilir.” dedi.

Sahte içerik oluşturma…

Prof. Dr. Burhan Pektaş, yapay zeka tarafından oluşturulan deepfake (sahte) içeriklerin bireyleri yahut kuruluşları aldatmak için gerçekçi görünen lakin düzmece sesli yahut imajlı bildiriler oluşturarak toplumsal mühendislik akınları için kullanılabileceğini kaydederek, “Yapay zekanın evrimi, siber tehditlere yeni boyutlar kazandırarak saldırganların yapay zekayı berbat gayelerle kullanma potansiyeline sahip olmasını sağladı.” diye konuştu.

Siber atak için kimlik avı e-postaları oluşturulabilir

Saldırganların siber akınlarını geliştirmek için yapay zekayı berbata kullanabileceği çeşitli yollar olduğunu da söz eden Prof. Dr. Burhan Pektaş, “Saldırganlar, yüksek seviyede maksada yönelik ve ikna edici kimlik avı e-postaları oluşturmak gayesiyle büyük data kümelerini ve toplumsal medya profillerini tahlil etmek için yapay zekayı kullanabilir. Bu, bireylerin yasal ve makus niyetli iletileri ayırt etmesini zorlaştırır.” dedi.

Hedefteki kişi kimliğine bürünerek ikna edici ses ve görüntü kayıtları oluşturabilir

Yapay zekanın, klasik imza tabanlı antivirüs tahlillerinden kaçmak için kodunu ve görünümünü dinamik olarak değiştirebilen, çok biçimli, makus emelli yazılım oluşturmak için kullanılabileceğini de kaydeden Prof. Dr. Burhan Pektaş, “Yapay zeka algoritmaları, makus maksatlı yazılım çeşitlerinin oluşturulmasını otomatik hale getirebilir, bu da güvenlik sistemlerinin tehditlerin hacmine ve çeşitliliğine ayak uydurmasını zorlaştırır. Saldırganlar, legal bireylerin kimliğine bürünerek ikna edici ses ve görüntü kayıtları oluşturmak için yapay zeka tarafından oluşturulan deepfake teknolojisini kullanabilir. Bu, toplumsal mühendislik hücumları yahut yanlış bilgi yaymak için kullanılabilir.”

Yapay zeka dayanaklı sohbet robotlar kamuoyunu manipüle etmek için kullanılabilir

Yapay zeka takviyeli sohbet robotları yahut toplumsal botların, çevrimiçi etkileşimlerde insan davranışını taklit etmek, dezenformasyon yaymak, toplumsal mühendislik atakları gerçekleştirmek yahut kamuoyunu manipüle etmek için kullanılabileceğini de anlatan Prof. Dr. Burhan Pektaş, “Saldırganlar, güvenlik hedefiyle kullanılan yapay zeka modellerinin eğitim bilgilerini manipüle etmeye çalışabilir.” diye bilgi verdi.

Kişisel bilgilerin güvenliği

Yapay zekanın, ferdî bilgi güvenliği üzerinde kıymetli bir tesirinin var olduğunu, etik ve kapalılık dertlerinin da ortaya çıktığını tabir eden Prof. Dr. Burhan Pektaş, “Yapay zeka sistemleri eğitim için ekseriyetle kapsamlı bilgi kümelerine dayanır. Bu data kümeleri hassas ferdî bilgiler içerdiğinde etik korku ortaya çıkıyor ve bilgi toplamanın kapsamı ve gerekliliği hakkında sorular ortaya çıkıyor. Etik uygulamalar, bireylerin ferdî datalarını toplamadan ve işlemeden evvel aydınlatılmış onamlarının alınmasını içerir. Dataların nasıl kullanılacağını açıklamanın şeffaflığı çok değerlidir.” dedi.

Bilişim kabahatlerine karşı korunmak için bireyler ve kurumlar neler yapabilir?

Siber kabahatlere karşı müdafaanın, proaktif tedbirlerin, güvenlik uygulamalarının ve daima dikkatin bir kombinasyonunu içerdiğini kaydeden Prof. Dr. Burhan Pektaş, siber güvenliğin artırılmasına yönelik hem bireylere hem de kurumlara yönelik tekliflerini şöyle sıraladı:

Güçlü ve eşsiz şifreler kullanın: Karmaşık şifreler oluşturun ve birebir şifreyi birden fazla hesapta kullanmaktan kaçının. Güçlü, eşsiz şifreler oluşturmak ve saklamak için bir şifre yöneticisi kullanmayı düşünün.

Çok faktörlü kimlik doğrulamayı (MFA) etkinleştir: Parolaların ötesinde ekstra bir güvenlik katmanı eklemek için mümkün olan her yerde MFA’yı uygulayın.

Yazılımı yeni tutun: Güvenlik açıklarını düzeltmek ve güvenliği artırmak için işletim sistemlerini, yazılımları ve uygulamaları tertipli olarak güncelleyin.

E-postalara karşı dikkatli olun: Şüpheli temaslara tıklamaktan yahut bilinmeyen kaynaklardan ekleri indirmekten kaçının. E-postaların, bilhassa de hassas bilgiler isteyen e-postaların meşruiyetini doğrulayın.

Güvenli Wi-Fi ağlarını kullanın: Ev Wi-Fi ağlarını güçlü parolalar ve şifrelemeyle koruyun. VPN kullanmadığınız sürece hassas süreçler için halka açık Wi-Fi kullanmaktan kaçının.

Güvenlik yazılımını kurun ve güncelleyin: Saygın bir antivirüs ve berbat emelli yazılımdan müdafaa yazılımı yükleyin ve yeni tutun.

Önemli bilgileri yedekleyin: Kritik dataları tertipli olarak harici bir aygıta yahut inançlı bir bulut hizmetine yedekleyin.

Haberdar olun: Saygın kaynaklar aracılığıyla yeni siber tehditler ve en uygun güvenlik uygulamaları hakkında aktüel bilgilere sahip olun.

Kişisel bilgi paylaşımını sınırlayın: Kişisel bilgilerinizi toplumsal medyada ve öbür çevrimiçi platformlarda paylaşma konusunda dikkatli olun

En az 10 karakter gerekli


HIZLI YORUM YAP
300x250r
300x250r

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.