<div dir="ltr"><div dir="ltr"><p>I don&#39;t think these are very contentious, so hopefully a single response is sufficient.<br></p><p>
&quot;(2) In requirement meas.003: After reading the standard, I think I 
understood what that means, although I&#39;m not sure what the reason for 
the requirement is (let alone which use case it is derived from). Let me
 try: &quot;Each error instance must only be referenced by a single 
measurement.&quot; Is that what you mean? If so, why?&quot;</p><p>This means that &#39;Systematic&#39; error should only show up once for any given value.  When you allow errors from multiple sources, it opens the possibility that any given source (systematic, statistical, etc) could show up multiple times.  We don&#39;t want that, I think.  If there are multiple contributors to systematic error, we can&#39;t distinguish them anyway, so might as well consolidate them.</p><p><br></p><p>
&quot;(3) While the document certainly cannot be an introduction into error 
calculus, I have to say I can&#39;t tell the difference between 
Error.statError and Error.ranError (I&#39;ve looked things up in the 
Wikipedia, and it says: &quot;Measurement errors can be divided into two 
components: random error and systematic error.&quot; So... from my own 
experience I&#39;d say it would be wise to either say a few words on what&#39;s a
 statError and what&#39;s a ranError or, if that&#39;s too long, perhaps point 
to some textbook.&quot;</p><p>I wanted to say that these come from the predecessor(s), either STC-1.33 or Characterization&#39;s Accuracy class, but I&#39;m not finding it.  Anyway, I know the 3 have been in the model since at least 2016, where they show up in discussions I had with Arnold.  </p><p>Anyway.. I have no objection to reducing the set to systematic, and statistical only.  This is consistent with what CAOM2 has, though it looks like it has &#39;sys&#39; and &#39;rnd&#39;.</p><p><br></p></div></div>