Google uczy sztuczną inteligencję pisać notki encyklopedyczne przypominające te znane czytelnikom Wikipedii. Najtrudniejszym dla algorytmów zadaniem jest pisemne podsumowywanie zgromadzonych na stronie internetowej informacji - podał serwis The Register.

Inżynierowie z laboratorium Google Brain, które skupia się na pracy w dziedzinie uczenia maszynowego i sztucznej inteligencji, nauczyli program komputerowy pisać krótkie formy przypominające notatki encyklopedyczne z Wikipedii. Formułowane są one wynikiem podsumowania przez algorytm zgromadzonych na stronie internetowej informacji.
Wyniki eksperymentów, jakie do tej pory w tej dziedzinie przeprowadzili naukowcy, nie są jednoznaczne. Podsumowywanie informacji w formie tekstu to zadanie całkiem trudne - dowodzą badacze. Zdania, które buduje specjalnie wytrenowany program, są mało skomplikowane i krótkie. Nie mają w sobie kreatywności i rytmu charakterystycznego dla tekstów pisanych przez ludzi - twierdzą autorzy raportu końcowego z badań firmy Salesforce, która jako pierwsza podjęła się tego rodzaju próby.
Wyniki inżynierów z Google Brain są nieco bardziej zadowalające. Zdania otrzymywane przez ich sztuczną inteligencję są już dłuższe i są pisane nieco bardziej naturalnym językiem.
Stworzony przez badaczy z Google model bazuje na agregowaniu treści z dziesięciu najpopularniejszych stron internetowych na zadany temat, z pominięciem stron Wikipedii. Następnie paragrafy tekstu na każdej ze stron są grupowane i kompilowane w jednym, długim dokumencie. Kolejnym krokiem jest kodowanie i skracanie tekstu poprzez rozdzielenie go na 32 tys. unikalnych słów, które stanowią właściwy materiał bazowy dla działania algorytmu. Opiera się on na modelu abstrakcyjnym, w którym długie zdania z pierwotnego dokumentu są skracane. Proces ten służy zarówno do tworzenia tekstu będącego ostatecznym rezultatem działania programu, jak i do jego podsumowywania. Zdania, z których się składa, nie są tworzone od początku, lecz stanowią esencję wydobytą z dokumentu wyjściowego.
Zdaniem jednego z inżynierów Google Brain, Mohammada Saleha, to właśnie wydzielenie tej esencji jest najtrudniejszym etapem w eksperymencie. Proces ten determinuje, które części wyjściowego dokumentu zostaną przetworzone w modelu abstrakcyjnym. "Oczywiście chcielibyśmy, aby trafiała tam całość tekstu z dokumentów początkowych" - mówi. "Projektowanie modeli i procesorów zdolnych przetwarzać dłuższe sekwencje tego typu to obecnie obszar, w jakim jesteśmy aktywni - trzeba te ograniczenia przezwyciężyć" - dodaje.
Jak zaznacza Saleh, wciąż daleko do efektywnego, automatycznego podsumowywania tekstów bądź generowania treści informacyjnych.


KOMENTARZE (0)