<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Apr 29, 2016 at 8:39 AM, Raymond Toy <span dir="ltr"><<a href="mailto:toy.raymond@gmail.com" target="_blank">toy.raymond@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div id=":1ge" class=""> some of the failures are really hard to fix, so they<br>
don't get fixed.  Some of the tests, while correct, I refuse to do<br>
anything about</div></blockquote></div><br>Ah! I think that'd be useful to have captured, formatted, and distributed, e.g. for people concerned with portability.  There doesn't need to be, but I'm not arguing against, some moral judgement wrt to passing/failing tests.  You can trade it for greater visibility in how implementations, and perhaps versions of the same implementation, vary over time.</div><div class="gmail_extra"><br></div><div class="gmail_extra">With that info in hand, someone could build the CL equivalent of <a href="http://caniuse.com/">http://caniuse.com/</a> (or add it into cl-test-grid's reporting).</div><div class="gmail_extra"><br clear="all"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">When I do run ansi-tests on the rare occassion, it's mostly now as a</blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">regression</blockquote><div><br class="">That's a great point.  I imagine one might run ansi-test and then have some comfortable means to annotate discrepancies.  Those annotations could then be used as a baseline for subsequent versions.  Including the deltas in release notes would be nice.</div><div><br></div>-- <br><div class="gmail_signature">Ian Tegebo</div>
</div></div>