Modele językowe sztucznej inteligencji mogą generować abstrakty naukowe, które są bardzo trudne do odróżnienia od prac przygotowanych przez ludzi. Nie ma na razie narzędzi pozwwalających wydajnie wykrywać niedozwolone użycie AI w literaturze naukowej – informuje pismo „Journal of Clinical Oncology Clinical Cancer Informatics”.
Wykrywanie treści AI w artykułach naukowych jest bardzo trudne
Modele językowe sztucznej inteligencji mogą generować abstrakty naukowe, które są bardzo trudne do odróżnienia od prac przygotowanych przez ludzi. Nie ma na razie narzędzi pozwwalających wydajnie wykrywać niedozwolone użycie AI w literaturze naukowej – informuje pismo „Journal of Clinical Oncology Clinical Cancer Informatics”.