Metrics
Accuracy
Bases: RunEvaluator
Evaluates Accuracy metric
Source code in supermat/langchain/metrics.py
37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 |
|
CosineSimilarity
Bases: RunEvaluator
Evaluates cosine similarity metric
Source code in supermat/langchain/metrics.py
66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 |
|
FaithfullnessMetrics
Bases: RunEvaluator
Evaluates Faithfullness metric
Source code in supermat/langchain/metrics.py
14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 |
|
Rouge1
Bases: RunEvaluator
Evaluates ROGUE1 F1 metric
Source code in supermat/langchain/metrics.py
150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 |
|
Rouge1Precision
Bases: Rouge1
Evaluates ROGUE1 precision metric
Source code in supermat/langchain/metrics.py
174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 |
|
Rouge1Recall
Bases: Rouge1
Evaluates ROGUE1 recall metric
Source code in supermat/langchain/metrics.py
191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 |
|
Rouge2
Bases: RunEvaluator
Evaluates ROGUE2 F1 metric
Source code in supermat/langchain/metrics.py
208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 |
|
Rouge2Precision
Bases: Rouge2
Evaluates ROGUE2 precision metric
Source code in supermat/langchain/metrics.py
231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 |
|
Rouge2Recall
Bases: Rouge2
Evaluates ROGUE2 recall metric
Source code in supermat/langchain/metrics.py
248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 |
|
RougeLsum
Bases: RunEvaluator
Evaluates ROGUE-L F1 metric
Source code in supermat/langchain/metrics.py
91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 |
|
RougeLsumPrecision
Bases: RougeLsum
Evaluates ROGUE-L sum precision metric
Source code in supermat/langchain/metrics.py
116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 |
|
RougeLsumRecall
Bases: RougeLsum
Evaluates ROGUE-L sum Recall metric
Source code in supermat/langchain/metrics.py
133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 |
|