Οι ομάδες ασφαλείας αναρωτιούνται αν τα LLM μπορούν να επιταχύνουν την επιδιόρθωση. Μια νέα μελέτη δοκιμάζει αυτή την ιδέα, δείχνοντας πού τα εργαλεία επιτυγχάνουν και πού αποτυγχάνουν. Οι ερευνητές δοκίμασαν LLM από την OpenAI, τη Meta, την DeepSeek και τη Mistral. Στόχος τους ήταν να δουν πόσο καλά αυτά τα μοντέλα μπορούσαν να διορθώσουν ευάλωτες λειτουργίες Java με μία μόνο προσπάθεια. Ένα ευρύ μείγμα μοντέλων υποβλήθηκε στην ίδια δοκιμή.
Οι ομάδες ασφαλείας αναρωτιούνται αν τα LLM μπορούν να επιταχύνουν την επιδιόρθωση. Μια νέα μελέτη δοκιμάζει αυτή την ιδέα, δείχνοντας πού τα εργαλεία επιτυγχάνουν και πού αποτυγχάνουν. Οι ερευνητές δοκίμασαν LLM από την OpenAI, τη Meta, την DeepSeek και τη Mistral. Στόχος τους ήταν να δουν πόσο καλά αυτά τα μοντέλα μπορούσαν να διορθώσουν ευάλωτες λειτουργίες Java με μία μόνο προσπάθεια.
Ένα ευρύ μείγμα μοντέλων υποβλήθηκε στην ίδια δοκιμή. Η μελέτη εξέτασε δύο ομάδες ευπαθειών. Η πρώτη ομάδα αποτελούνταν από αυθεντικά ζητήματα.
