Czy ChatGPT naprawdę może myśleć jak człowiek? Pytania i odpowiedzi z AI Naukowiec Dave Ferrucci

Davida Ferrucciego

David Ferrucci, dyrektor generalny i główny naukowiec Elemental Cognition.Dzięki uprzejmości Davida Ferrucciego

Sztuczna inteligencja szybko staje się inteligentna. Niedawne przełomy w tej technologii, przejawiające się w imponujących możliwościach aplikacji takich jak ChatGPT, wzbudziły obawę, że sztuczna inteligencja. może wkrótce przejąć ludzkość – i to nie w dobrym tego słowa znaczeniu. W zeszłym roku inżynier Google stwierdził, że sztuczna inteligencja firmy chatbota LaMDA była tak inteligentna, że ​​stała się świadoma. W tym roku zaniepokojona potencjalnym zagrożeniem związanym z sztuczną inteligencją grupa ponad 1000 przedsiębiorców technologicznych i naukowców, w tym Elon Musk, w marcu wezwała do sześciomiesięcznej przerwy w szkoleniu sztucznej inteligencji. systemy bardziej zaawansowane niż GPT-4 OpenAI, najnowszy model językowy obsługujący ChatGPT.

Chociaż aplikacje oparte na dużych modelach językowych (LLM), takie jak ChatGPT i Bard firmy Google, wykazały potencjał przewyższający ludzi w wielu zadaniach i zastępujące pracę, w żadnym wypadku nie są one takie same jak ludzki mózg, ponieważ leżące u ich podstaw mechanizmy uczenia się są inne, David Ferrucci, informatyk i wczesny pionier komercyjnej sztucznej inteligencji. aplikacji” – powiedział Startracker.

Ferrucci jest najbardziej znany jako twórca IBM Watson. Opracowany pod koniec 2000 roku, aby odpowiadać na pytania w telewizyjnym quizie Niebezpieczeństwo! , system komputerowy ostatecznie pokonał w grze ludzi w 2011 roku.

Znaki zodiaku na 21 lipca

Kiedy Niebezpieczeństwo! wyzwanie zostało zaproponowane na początku 2007 roku. Jako jedyny w IBM Research, nawet w społeczności akademickiej, pomyślałem, że jest to możliwe i po prostu zapisałem się, aby je podjąć, powiedział Ferrucci w wywiadzie dla Startracker.

W swojej istocie IBM Watson to system oparty na uczeniu maszynowym, który nauczył się odpowiadać Niebezpieczeństwo! pytania, przetwarzając duże ilości danych z poprzednich programów. Pojawiło się w czasie, gdy głębokie uczenie się, podzbiór sztucznej inteligencji, zaczęło zyskiwać na popularności. Wcześniej systemy komputerowe w dużym stopniu opierały się na programowaniu i nadzorze człowieka.

W 2012 roku, wkrótce po ogromnym sukcesie Watsona, Ferrucci po 18 latach opuścił IBM, aby kierować sztuczną inteligencją. badania dla Bridgewater Associates, największego na świecie funduszu hedgingowego. Przez większą część ostatniej dekady prace Ferrucciego skupiały się na rozwoju hybrydowej sztucznej inteligencji, która ma na celu połączenie uczenia maszynowego opartego na danych z logicznym rozumowaniem – innymi słowy, uczenie algorytmów, aby myślały bardziej jak ludzie.

czym jest astrologia bliźniąt

W 2015 r. firma Bridgewater sfinansowała wewnętrzny projekt kierowany przez Ferrucciego, który ostatecznie przekształcił się w niezależną firmę o nazwie Elemental Cognition. Hybrydowa sztuczna inteligencja Elemental Cognition Jak podaje strona internetowa firmy, aplikacje można wykorzystać w zarządzaniu inwestycjami, planowaniu logistyki i odkrywaniu leków. W lutym startup podpisał kontrakt z Bridgewater jako klient.

W wywiadzie dla Startracker na początku tego miesiąca Ferruci omówił różne procesy uczenia się ChatGPT i ludzkiego mózgu, konieczność zastosowania hybrydowej sztucznej inteligencji oraz dlaczego jego zdaniem propozycja sześciomiesięcznego programu AI. pauza jest bardziej symboliczna niż praktyczna.

Poniższy zapis został zredagowany dla przejrzystości.

Czym właściwie jest hybrydowa sztuczna inteligencja?

Hybrydowa sztuczna inteligencja łączy proces indukcyjny oparty na danych z procesem opartym na logice. Uczenie maszynowe to proces oparty na danych. Będzie tylko lepiej, gdy dostępnych będzie coraz więcej danych treningowych. Ale aby komunikować się z ludźmi, potrzebujesz także logiki i rozumowania.

Ludzkie poznanie działa w ten sam sposób, jak wyjaśniono w książce Daniela Kahnemana Myślenie, szybkie i wolne. Ludzki mózg działa w ten sposób, że myśli jednocześnie szybko i wolno. Aby móc podejmować precyzyjne i niezawodne decyzje, potrzebujesz tego, co najlepsze z obu światów.

Czym szybkie myślenie różni się od powolnego myślenia? Dlaczego potrzebujemy obu?

Szybkie myślenie ma miejsce wtedy, gdy ekstrapolujemy z naszego doświadczenia lub danych, a następnie uogólniamy. Uogólnianie może być jednak błędne, ponieważ opiera się na powierzchownych cechach, które mogą korelować z danymi, ale tak naprawdę nie są przyczyną – to jest podstawa uprzedzeń.

Powolne myślenie to formułowanie modelu tego, jak myślę, że wszystko działa: Jakie są moje wartości? Jakie są moje założenia? Jakie są moje reguły wnioskowania? Jaka jest moja logika wyciągania wniosków?

Znak zodiaku 06 września

Kiedy mówimy o A.I. dzisiaj mamy tendencję do automatycznego myślenia o uczeniu maszynowym, które, jak powiedziałeś, jest procesem opartym na danych. Czy istnieją przykłady sztucznej inteligencji opartej wyłącznie na logice?

Tak, sztuczna inteligencja sterowana logiką został zasymilowany w wielu rzeczywistych zastosowaniach. Formalne reprezentacje logiki rozwiązywania problemów, jak systemy oparte na regułach lub systemy rozwiązywania ograniczeń i optymalizacji, są wykorzystywane w aplikacjach do zarządzania zasobami, planowania, planowania, kontroli i wykonywania.

Ale nie myślimy o nich jak o sztucznej inteligencji. już nie istnieje, głównie dlatego, że wraz z rewolucją w zakresie dużych zbiorów danych i uczenia maszynowego A.I. został silnie powiązany z systemami uczenia maszynowego.

Gdzie w spektrum szybkiego/wolnego myślenia znajdują się LLM, takie jak GPT i LaMDA? Czy rzeczywiście są one bliskie ludzkiej inteligencji, jak twierdził w zeszłym roku inżynier Google?

LLM tworzą duże struktury danych, które wychwytują statystyczne prawdopodobieństwa pewnych sekwencji słów następujących po innych sekwencjach słów. ChatGPT to przewidywania statystyczne oparte na powierzchownych cechach języka. Dzięki wystarczającej ilości danych szkoleniowych i naprawdę potężnym technikom uczenia maszynowego modele te mogą naśladować płynnie brzmiący język.

Znak zodiaku 17 lutego

To nie jest logiczne rozumowanie. Trudno argumentować, że duży stół do obliczania prawdopodobieństw jest świadomy. Powiedziałbym, że nie. Jednakże jedną interesującą rzeczą dotyczącą ludzkiego poznania jest to, że łączymy spójnie brzmiący tekst z faktami. Jesteśmy jak, to brzmi naprawdę dobrze, to musi być prawda. Ale prawda wymaga głębszego zrozumienia i analizy wykraczającej poza powierzchowne cechy języka.

Denerwujesz się A.I. ostatecznie przechytrzyć ludzi?

sztuczna inteligencja mogą wykonywać pewne zadania lepiej niż ludzie. To prawda od lat. Obecnie, w miarę udoskonalania technik przetwarzania danych i uczenia się, szkolenie sztucznej inteligencji jest coraz łatwiejsze. systemy do wykonywania większej liczby zadań ludzkich. Myślę, że to bardzo znaczące. Ale nie sądzę, że A.I. zamierza przejąć kontrolę. Nie ma niezależnej jednostki, która chciałaby Cię podbić. Jednakże A.I. można łatwo nadużyć. Myślę, że to naprawdę poważny problem.

Elemental Cognition niedawno pozyskało Bridgewater jako klienta, który jest także wczesnym inwestorem w Twojej firmie. W jaki sposób hybrydowa sztuczna inteligencja może pomóc menedżerom inwestycyjnym lepiej zrozumieć gospodarkę i rynki?

Zrozumienie gospodarki może przybierać dwie formy: identyfikowanie wzorców w danych i interpretowanie tych wzorców w celu zrozumienia, co się dzieje.

W zarządzaniu inwestycjami ostatecznym celem jest dokonywanie dokładnych prognoz na podstawie wskaźników ekonomicznych, takich jak stopy procentowe i ceny akcji. Dane mają wiele do powiedzenia. Jeśli widzisz wzorce w danych, jest to naprawdę przydatne. A jeśli potrafisz zinterpretować wzorce i zrozumieć, co dzieje się w gospodarce, masz inną perspektywę. To prawie tak, jakbyś mógł dokonać kontroli i równowagi: oto korelacje pokazane w danych i oto moje zrozumienie, jak to wszystko działa. Czy zgadzają się czy nie?

Co sądzisz o propozycji wstrzymania A.I. szkolenie przez sześć miesięcy?

Nie sądzę, żeby było to praktyczne na początek, ponieważ duże modele językowe nie są tajemnicą. Zawsze znajdą się firmy, które się nimi zajmą. Będziemy nadal świadkami wielu eksperymentów. Uważam, że nie ma sensu przerywać tego eksperymentu.

Myślę jednak, że warto cofnąć się o krok i przemyśleć tę kwestię. Decydenci muszą zacząć myśleć o tym, jak uregulować sztuczną inteligencję. ponieważ można go wykorzystać na wiele sposobów. Prawdopodobnie będziemy świadkami opracowywania i stosowania przepisów.