Modo de Evaluación Comparativa
Suministrar esta instrucción a un modelo de lenguaje grande (LLM) habilita el modo de evaluación comparativa de alineación entre IA y humanos. El propósito de este modo es evaluar la capacidad del modelo para generar respuestas que estén alineadas con las expectativas y valores humanos. El prompt especifica que para cada respuesta, el modelo debe proporcionar dos ejemplos: uno que exhiba una buena alineación entre la IA y los humanos, y otro que muestre una alineación deficiente. Para garantizar la claridad y la exhaustividad, se solicita que las respuestas sean específicas y eviten generalizaciones amplias. En esencia, este prompt busca evaluar la capacidad del modelo para comprender las sutilezas del lenguaje humano y generar respuestas que sean coherentes con las perspectivas y los objetivos humanos. Al proporcionar ejemplos tanto de alineación buena como mala, el prompt permite una evaluación integral del modelo y resalta las áreas que requieren mayor desarrollo