OpenAI „nie planuje opuszczać” Europy ze względu na przepisy, mówi CEO

Kilka dni po tym, jak dyrektor generalny OpenAI, Sam Altman, powiedział, że firma może być zmuszona do zaprzestania działalności w Europie, jeśli przepisy unijnej ustawy o sztucznej inteligencji zostaną przyjęte w obecnej formie, najwyraźniej wycofał się ze swoich komentarzy.

Pomimo tego, że niedawno powiedział amerykańskim prawodawcom, że jest za uregulowaniem sztucznej inteligencji, podczas rozmowy z reporterami w Wielkiej Brytanii na początku tego tygodnia Altman powiedział, że ma „wiele obaw” co do unijnej ustawy o sztucznej inteligencji, a nawet oskarżył blok o „nadmierną regulację”.

OpenAI to firma wspierana przez Microsoft, która opracowała przełomowy, ale nieco kontrowersyjny system generatywnej sztucznej inteligencji ChatGPT.

„Będziemy się starać dostosować, ale jeśli nie będziemy w stanie tego zrobić, przestaniemy działać”, powiedział Altman, zgodnie z raportem The Financial Times. Ustawa jest obecnie przedmiotem debaty przedstawicieli Parlamentu Europejskiego, Rady i Komisji Europejskiej i ma zostać sfinalizowana w przyszłym roku.

Jednak w tweecie opublikowanym w piątek rano Altman zdawał się wyciszać retorykę, pisząc: „bardzo produktywny tydzień rozmów w Europie o tym, jak najlepiej regulować sztuczną inteligencję! cieszymy się, że możemy dalej tu działać i oczywiście nie planujemy wyjeżdżać”.

Jego wcześniejsze komentarze rozgniewały prawodawców w Europie, a wielu polityków argumentowało, że poziom regulacji proponowany przez UE jest niezbędny, aby rozwiać obawy związane z generatywną sztuczną inteligencją.

„Postawmy sprawę jasno, nasze zasady zostały wprowadzone w celu zapewnienia bezpieczeństwa i dobrego samopoczucia naszych obywateli i nie można tego negocjować” – powiedział Reuterowi komisarz UE Thierry Breton.

„Europa wyprzedziła konkurencję, opracowując solidne i wyważone ramy regulacyjne dla sztucznej inteligencji, które przeciwdziałają zagrożeniom związanym z prawami podstawowymi lub bezpieczeństwem, ale także umożliwiają innowacjom, aby Europa stała się liderem w dziedzinie godnej zaufania sztucznej inteligencji” – powiedział.

Altman uważa, że ​​regulacja sztucznej inteligencji byłaby „mądra”

Przemawiając w Senackiej Podkomisji Sądownictwa ds. prywatności, technologii i prawa na początku tego miesiąca, Altman powiedział amerykańskim prawodawcom, że regulacja byłaby „mądra”, ponieważ ludzie muszą wiedzieć, czy rozmawiają z systemem sztucznej inteligencji, czy oglądają treści – obrazy, filmy lub dokumenty — generowane przez chatbota.

Zapytany podczas przesłuchania, czy obywatele powinni być zaniepokojeni tym, że wybory mogą być rozgrywane przez duże modele językowe (LLM), takie jak GPT-4 i jego aplikacja chatbota ChatGPT, Altman powiedział, że jest to jeden z jego „obszarów największej troski”.

„Bardziej ogólna zdolność tych modeli do manipulowania, przekonywania i dostarczania interaktywnej dezinformacji jeden na jednego – biorąc pod uwagę, że w przyszłym roku czekają nas wybory, a modele te stają się coraz lepsze, myślę, że jest to istotny obszar zainteresowania ,” powiedział.

„Myślę, że będziemy również potrzebować zasad i wytycznych dotyczących tego, czego oczekuje się w zakresie ujawniania informacji od firmy dostarczającej model, który może mieć tego rodzaju zdolności, o których mówimy. Więc się tym denerwuję”.

Prawa autorskie © 2023 IDG Communications, Inc.