Geçen Pazartesi bir hemşire, benim ve doğmamış bebeğimin hayati değerlerini takip etmek için kablosuz bir monitör denememizi önerdi.
“Bu cihaza “Monica, monitör!” diyoruz. Hemşire bana , "Bu ya üzerinde çalışılacak bir rüya ya da tam bir kabus" dedi.
O gün “Monica” (aslında Novii Kablosuz Yama Sistemi) olağanüstü iyi performans gösterdi. Kızımı doğururken tellere takılmadan özgürce hareket edebildim. Bu teknoloji, fetal ve anne kalp sinyallerini ayırt etmek ve rahim kasılmalarını tespit etmek için pasif sinyal ediniminden yararlanır. Veriler, gerçek zamanlı gözlem için kablosuz olarak bir izleme ünitesine iletilir. Bu sistem doğruluğu artırır ve yanlış alarmları azaltır, doğum sırasında çok ihtiyaç duyulan hareketliliği sunar.
Şöyle düşündüm: Teknolojiler hakkında yazmak ve teori oluşturmak başka bir şey, ama onların dikkate değer yeteneklerini ilk elden deneyimlemek bambaşka bir şey, özellikle de bir cihaz kusursuz çalıştığında. Bir soru ortaya çıktı: Temel modeller giyilebilir ürünlere neler katabilir? "Monica" deneyimimin hemen ardından Google Research ve MIT araştırmacılarının yakın tarihli bir makalesi dikkatimi çekti. ' Sağlık-LLM: Giyilebilir Sensör Verileri Yoluyla Sağlık Tahmini için Büyük Dil Modelleri ' başlıklı ve Kim ve diğerleri tarafından yazılan bu makale, sağlık tahmini için giyilebilir sensörlerden gelen verilerin yorumlanmasına odaklanarak yüksek lisansların sağlık sektöründeki uygulamasını ele alıyor. İlginçtir ki, bu modeller tıbbi kayıtlardan veya doktor notlarından değil, günlük adımları, kalp atış hızını, uyku düzenini ve 'Monica'ya benzer şekilde daha fazlasını izleyen Fitbits gibi giyilebilir cihazlardan gelen verilerle besleniyor.
Araştırma, altı halk sağlığı veri kümesinde sekiz son teknoloji LLM'yi değerlendirdi: Med-Alpaca, PMC-Llama, Asclepius, ClinicalCamel, Flan-T5, Palmyra-Med, GPT-3.5 ve GPT-4. Akıl sağlığı, aktivite, metabolizma, uyku ve kalp değerlendirmeleriyle ilgili on üç sağlık tahmini görevi üzerinde deneyler yaptılar.
Ekip, sıfır adımlı ve birkaç adımlı yönlendirme (modeli çok az örnekle veya hiç örnek olmadan öğretmek), öğretici ince ayar (modeli belirli görevlere göre uyarlama) ve hatta bazı parametre açısından verimli ince ayarlar dahil olmak üzere çeşitli yöntemleri denedi. hesaplama verimliliği.
Kullanıcı bağlamı, sağlık bilgisi ve zamansal bilginin eklenmesini içeren istemlerdeki bağlam geliştirmenin etkinliği özellikle büyüleyicidir. Bu yaklaşım performansta %23,8 oranında bir iyileşme sağladı.
Sağlık son derece hassas bir alan ancak üretken yapay zekanın insanlar için potansiyel faydaları, özellikle temel modellerin gücüyle birlikte çok büyük. Health-LLM, giyilebilir cihazların sadece pasif izleyiciler değil proaktif sağlık koruyucuları olduğu geleceği araştırıyor.
Sağlık alanında çığır açan bir diğer makale, Stanford ve Stability AI araştırmacılarından CheXagent: Göğüs Röntgeni Yorumlamasına Doğru Temel Modeline doğru başlıklı makaleden geliyor. Bu makalenin en büyüleyici yönü, özellikle göğüs röntgenlerini yorumlamak için tasarlanmış gelişmiş bir temel model olan CheXagent'ın geliştirilmesidir. Bu model, klinik bir LLM'yi, özel bir görüntü kodlayıcıyı ve bir görüntü dili köprüleme ağını benzersiz bir şekilde birleştirerek karmaşık tıbbi görüntülerin yorumlanmasında olağanüstü bir performans sergiler. Doğruluk ve adalet değerlendirmelerinde mevcut modellerden daha iyi performans gösterme yeteneği, tıbbi görüntüleme yapay zeka teknolojisinde önemli bir ilerlemeye işaret ediyor. Çok fazla zaman kazandırabilir! Ve muhtemelen yaşıyor.
(Yeni doğan kız - Sebep Leeloo Joy - selamlarını iletiyor. Geçen hafta bir hafta ara verdik ama şimdi yeniden yolumuza devam ediyoruz, kendisinin ve dört erkek kardeşinin bu dünyada nasıl yaşayacağını ve bu dünyada nasıl gezineceğini anlamak için yapay zeka dünyasını keşfediyoruz.)
Olağan Şüpheliler'den Haberler ©
Sam Altman ve OpenAI
- OpenAI, iki yeni yerleştirme modelini (metin yerleştirme-3-küçük ve metin yerleştirme-3-büyük) ve GPT-4 Turbo, GPT-3.5 Turbo'nun güncellenmiş sürümlerini ve bir metin denetleme modelini yayınladı . Yeni yerleştirme modelleri, içeriği sayısal diziler halinde temsil ederek kümeleme veya alma gibi makine öğrenimi görevlerini geliştirir. Ayrıca daha verimli ve uygun maliyetlidirler.
- Bu arada Sam Altman, yeni bir çip girişimi başlatmak için zengin yatırımcılar ve TSMC gibi çip imalatçıları da dahil olmak üzere Orta Doğulu destekçilerle görüşmelerde bulunuyor. Bu hamle, OpenAI'nin artan yarı iletken ihtiyaçlarını karşılamayı ve Nvidia'ya olan bağımlılığı azaltmayı amaçlıyor. Girişimin yapısı belirsiz ve ayrı bir kuruluş veya OpenAI'nin bir yan kuruluşu olabilir.
Blackstone devreye giriyor
- Bir başka büyük oyuncu da yapay zeka devrimine büyük yatırım yapıyor. Blackstone, Amerika çapında 25 milyar dolarlık güç yoğun veri merkezleri ağı kuruyor. Büyük bir veri merkezi operatörü olan QTS'yi 10 milyar dolara satın almasının ardından Blackstone, teknoloji devlerinin artan dijital ve yapay zeka taleplerini karşılamak için devasa tesisler geliştiriyor. Milyonlarca eve eşdeğer elektrik tüketen bu projeler, toplumları yeniden şekillendiriyor ve kaynak kullanımı ve yerel faydalar konusunda tartışmalara yol açıyor. Gergin güç kaynakları ve halkın tepkisi gibi zorluklara rağmen Blackstone, bu girişimi potansiyel olarak en iyi yatırımlarından biri olarak görüyor ve bu da yapay zeka çağında veri altyapısının artan önemini ve karmaşıklığını gösteriyor.
Elon Musk, xAI ve Tesla
Google ve Sarılma Yüzü
- Hugging Face ve Google Cloud arasında yakın zamanda duyurulan ortaklık, yapay zekayı daha erişilebilir hale getirmeyi amaçlıyor. Hem Hugging Face'in açık modellerinden hem de Google Cloud'un teknolojisinden yararlanarak açık bilim ve kaynak alanındaki ortak girişimlere odaklanıyor. Amaç, daha geniş bir kullanıcı ve uygulama yelpazesi için yapay zeka teknolojilerinin geliştirilmesini kolaylaştırmaktır.
- Bu arada Google Bard, HuggingFace'in Chatbot Arena Liderlik Tablosunda ikinci sıraya yükseldi ve topluluk odaklı LLM sıralamasında GPT-4'ü geride bıraktı ve artık yalnızca GPT-4 Turbo'nun gerisinde kaldı.
Size kolaylık sağlamak için kategorize edilmiş en yeni araştırma makaleleri
Model Sıkıştırma ve Verimlilik
- SLICEGPT : Performansı korurken parametreleri kaldırarak büyük dil modellerini verimli bir şekilde sıkıştırmaya yönelik bir teknik → makaleyi okuyun
- DeepSeek-Coder : Kapsamlı bir parametre aralığına sahip, yüksek performanslı, çok dilli kod oluşturma modelleri geliştirmeye odaklanır →makaleyi okuyun
- SPACTOR-T5 : T5 modelleri için hesaplama gereksinimlerini azaltan etkili bir ön eğitim yöntemi sunar →makaleyi okuyun
- MEDUSA : Çoklu kod çözme kafaları kullanarak geniş dil modeli çıkarımını hızlandırmaya yönelik bir çerçeve →makaleyi okuyun
LLM Yetenekleri ve Değerlendirme
- GPT-4'ten Gemini'ye ve Ötesine : MLLM'leri birden fazla yöntemde genelleştirilebilirlik, güvenilirlik ve nedensellik açısından değerlendirir →makaleyi okuyun
- MaLA-500 : 500'den fazla dili destekleyen, dil modeli erişilebilirliğini artıran çok dilli bir LLM geliştirir →makaleyi okuyun
- Yüksek Lisans'ları Dürbünle Tespit Etme : Büyük dil modelleri tarafından oluşturulan metnin sıfır atışta tespiti için bir yöntem sunar → makaleyi okuyun
Multimodal ve Özel Modeller
- Maskelenmiş Otomatik Kodlayıcılar için Yama Bağımlılığını Yeniden Düşünmek : Gelişmiş görüntü işleme için maskeli otomatik kodlayıcılardaki kod çözme mekanizmasını inceler → makaleyi okuyun
- MM-LLM'ler : Çok modlu büyük dil modellerinin ilerlemeleri ve yetenekleri üzerine kapsamlı bir araştırma →makaleyi okuyun
- CMMMU : Çin bağlamında büyük çok modelli modelleri değerlendirmek için bir kıyaslama noktası oluşturuyor →makaleyi okuyun
- SpatialVLM : Gelişmiş uzamsal akıl yürütme yetenekleriyle görüş dili modellerini geliştirir →makaleyi okuyun
Yapay Zeka Eğitimi ve Veri Üretim Teknikleri
- Evrensel Tahmincileri Öğrenmek : Solomonoff Tümevarımına yaklaşarak evrensel tahmin stratejileri için sinir ağlarının eğitimini araştırıyor →makaleyi okuyun
- Unitxt : Üretken NLP'de esnek ve tekrarlanabilir veri hazırlığı için bir Python kütüphanesi →makaleyi okuyun
- GENIE : Büyük dil modellerini kullanarak yüksek kaliteli, içeriğe dayalı sentetik veriler üretmeye yönelik bir yöntem →makaleyi okuyun
- MambaByte : Doğrudan ham baytlardan öğrenen, belirteçsiz bir dil modelini araştırıyor → makaleyi okuyun
- Meta-Prompting : Daha iyi performans için görevden bağımsız bir iskele tekniği ile dil modellerini geliştirir → makaleyi okuyun
- WARM : Takviyeli öğrenimde büyük dil modellerini insan tercihleriyle uyumlu hale getirmeye yönelik bir yaklaşım →makaleyi okuyun
Dil Modelleri ve Rol Oynama
- Küçük Dil Modeli, Güçlendirilmiş Görme Kelime dağarcığıyla Buluşuyor : Etkili görsel bilgi kodlaması için gelişmiş görme kelime dağarcığını entegre eden kompakt bir model sunar → makaleyi okuyun
- Büyük Dil Modelleri Tüm Karakterlerin Süperpozisyonudur : Büyük dil modellerini kullanarak diyalogları rol oynamak için bir yöntem geliştirir → makaleyi okuyun
- Orion-14B : Konuşma uygulamaları için çok dilli geniş dil modellerinden oluşan bir koleksiyon sunar →makaleyi okuyun
Diğer bültenlerde
- Hard Software'den Apple'ın "Avrupa Birliği'nde dağıtılan uygulamalara ilişkin güncelleme" başlıklı harika incelemesi
- Interconnects'ten Model Birleştirme hakkında eğlenceli okuma "Saf Yüksek Lisans kara büyü gibi görünen şey literatür tarafından desteklendiğinde"
- Bu Yıl Apple'ın Yapay Zekada Uyandığı Yıl mı? Madrona yatırımcılarının görüşü.
- Andrew Ng, Davos ve Dünya Ekonomik Forumu'ndaki deneyimini anlatıyor. Yapay zekayla ilgili ama Ng'nin imzasını taşıyan hümanist tarzıyla.